19,560 matches
-
de avantaje față de API-urile tradiționale de prelucrare a datelor cu ajutorul procesoarelor video. Capacitatea de calcul ("Compute capability") reflectă funcționalitățile suportate de dispozitivele CUDA. Partea întreaga a numărului versiunii indică echipamentele ce au aceeași arhitectură de bază. Modificările minore aduse arhitecturii se deosebesc între ele prin partea zecimala. Cunoașterea acestui număr este utilă în cazul în care se dorește rularea unor aplicații pentru CUDA. '*' - OEM-only products Un table al dispozitivelor care compatibile oficial cu CUDA: Arhitectură CUDA constă în următoarele componente
CUDA () [Corola-website/Science/322713_a_324042]
-
CUDA și celelalte unități de execuție din cadrul unui "SM" execută thread-uri. Un "SM" execută un grup de 32 de thread-uri, numit și "warp". În noiembrie 2006 NVIDIA a lansat prima placă video cu nucleul G80, GeForce 8800. În iunie 2008, arhitectura G80 a fost îmbunătățită seminficativ și redenumită GT200. Această îngloba 240 de nuclee CUDA față de cele 128 în cazul G80. Primul procesor grafic proiectat pe arhitectură Fermi conține 3 miliarde de tranzistoare. Dispune de 512 nuclee CUDA care sunt grupate
CUDA () [Corola-website/Science/322713_a_324042]
-
NVIDIA a lansat prima placă video cu nucleul G80, GeForce 8800. În iunie 2008, arhitectura G80 a fost îmbunătățită seminficativ și redenumită GT200. Această îngloba 240 de nuclee CUDA față de cele 128 în cazul G80. Primul procesor grafic proiectat pe arhitectură Fermi conține 3 miliarde de tranzistoare. Dispune de 512 nuclee CUDA care sunt grupate în 16 "SM (streaming multiprocessors)". Principalele modificări aduse arhitecturii existente vizează: Exemplu de cod C++ care încărca o textura într-o matrice din procesorul grafic: void
CUDA () [Corola-website/Science/322713_a_324042]
-
Această îngloba 240 de nuclee CUDA față de cele 128 în cazul G80. Primul procesor grafic proiectat pe arhitectură Fermi conține 3 miliarde de tranzistoare. Dispune de 512 nuclee CUDA care sunt grupate în 16 "SM (streaming multiprocessors)". Principalele modificări aduse arhitecturii existente vizează: Exemplu de cod C++ care încărca o textura într-o matrice din procesorul grafic: void foo() global void kernel(float* odată, int height, int width) Mai jos este un exemplu scris în Python care calculează în procesorul grafic
CUDA () [Corola-website/Science/322713_a_324042]
-
Tech Group" a elaborat o matrice pentru managementul ciclului de viață al produsului care conține fazele proceselor asociate cu produsul, de la concepție, trecând prin proiectare, producție și lansare. Aceste faze sunt: Faza 1 -Concepție/Idee; Faza 2 -Specificații preliminare și arhitectura produsului; Faza 3 -Analiza economico-financiară a afacerii; Faza 4 -Specificații finale și dezvoltarea proiectului; Faza 5 -Testare și validare; Faza 6 -Producție; Faza 7 Susținere; Faza 8 -Sfârșit. Sistemele PLM sunt instrumente care asistă corporațiile în implementarea conceptelor PLM. Funcționalitatea
Managementul ciclului de viață al produsului () [Corola-website/Science/322695_a_324024]
-
validare; Faza 6 -Producție; Faza 7 Susținere; Faza 8 -Sfârșit. Sistemele PLM sunt instrumente care asistă corporațiile în implementarea conceptelor PLM. Funcționalitatea sistemelor PLM poate fi obținută prin componentele specifice sistemelor PLM: Infrastructura TI include hardware, software și tehnologiile Internetului. Arhitectura modelării informaționale a produsului include ontologia produsului și standarde de interoperabilitate. Mediul de dezvoltare și Toolkit-ul (kit-ul cu instrumente) oferă mijloace pentru construirea aplicațiilor în afaceri și pot include partea de bază ( de ex. geometrie, matematică etc.), instrumente de
Managementul ciclului de viață al produsului () [Corola-website/Science/322695_a_324024]
-
de viață. Utilizarea dispozitivelor de informații încorporate în produs (PEID) poate ajuta la închiderea buclelor de informații între diferitele faze din ciclul de viață al produsului. Dispozitivele PEID sunt un exemplu de implementare a "Identificării Automate și Capturii Datelor" ("AIDC"). Arhitectura PROMISE cuprinde toate tehnologiile AIDC, inclusiv etichete de identificare în radiofrecvență ("RFID"), coduri de bare, tehnologiile sensorilor și alte tipuri de tehnologii emergente, de exemplu biometrie. Etichetele RFID sunt similare cu etichetele electronice utilizate de magazine pentru a preveni furtul
Managementul ciclului de viață al produsului () [Corola-website/Science/322695_a_324024]
-
de exemplu temperatura și presiunea. Datele înregistrate de dispozitivele încorporate PEID permit monitorizarea performanței și siguranței în funcționare a produsului în operarea acestuia în lumea reală. Datele înregistrate de PEID pot fi accesate prin middleware PROMISE, PROMISE DATA SERVICES Scopul arhitecturii PROMISE este de a asigura o infrastructură sigură pentru schimbul și procesarea datelor de management al ciclului de viață pentru toate fazele acestui ciclu, însă cu un accent particular pe îmbunătățirea accesibilității datelor ciclului de viață în timpul fazei de mijloc
Managementul ciclului de viață al produsului () [Corola-website/Science/322695_a_324024]
-
Aceasta are implicații pentru corectitudine care este considerată importantă pentru anumite aplicații științifice. În timp ce valorile virgulei mobile pe 64 de biți (mobilă în dublă precizie) sunt disponibile de obicei pe microprocesoare, acestea nu sunt mereu suportate pe GPU-uri; anumite arhitecturi GPU sacrifică conformitatea cu IEEE în timp ce altele duc lipsă de precizie dublă. Au existat eforturi de a imita valorile virgulei mobile în dublă precizie pe GPU-uri; totuși, compromisul de viteză neagă orice beneficiu de a scăpa de calcul pe
GPGPU () [Corola-website/Science/322733_a_324062]
-
SDK și tehnologia sunt denumite FireStream SDK (inițial o interfață hardware subțire numită Close to Metal), proiectat să concureze direct cu NVidia CUDA. OpenCL de la Khronos Group este folosit în asociere cu OpenGL pentru a unifica extensia limbajelor C între arhitecturi diferite; acesta suportă NVidia și GPU-uri AMD/ATI, cât și microprocesoare de uz general. GPGPU comparat, de exemplu, cu acceleratorii tradiționali în virgulă mobilă cum ar fi plăcile CSX700 pe 64 de biți de la ClearSpeed care sunt utilizate în
GPGPU () [Corola-website/Science/322733_a_324062]
-
buget conform Sony ce se apropie de 400 de milioane de dolari americani. Cell este prescurtarea de la Cell Broadband Engine Architecture, prescurtat frecvent CBEA sau Cell BE. Procesorul Cell este format dintr-un nucleu de procesare de uz general cu arhitectură PowerPC cu performanțe relativ modeste și mai multe co-procesoare pentru accelerarea execuției aplicațiilor de tip multimedia, a calculelor vectoriale sau a altor tipuri de aplicații specializate. Prima aplicație comercială importantă Cell a fost încorporarea lui în consola de jocuri video
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
În afara utilizării lui ca microprocesor în PlayStation 3 se poate preta foarte bine și în procesarea imaginilor digitale în medicină sau în domeniul științific sau pentru simularea comportării fizice a unor modele virtuale complexe. Privit din punct de vedere al arhitecturii procesoarelor actuale el este o combinație între un procesor de uz general(precum Seria I de la Intel sau Athlon 64 de la AMD ) și unul grafic din seria GeForce de la Nvidia sau Radeon de la ATI. Până la apariția sa creșterile de performantă
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
de la Nvidia sau Radeon de la ATI. Până la apariția sa creșterile de performantă ale unui procesor de uz general erau obținute din mărirea frecvenței de funcționare, folosirea unui număr mai mare de unități de calcul puse în paralel în interiorul unui nucleu(arhitectură super-scalară) sau a unei linii de execuție cu mai multe etape(arhitectură super-pipeline). Cu toate acestea, fără o creștere proporțională a vitezei memoriei, aceste abordări au dus doar la creșterea timpilor de acces la memorie. Mai mult, datorită imposibilității de
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
ale unui procesor de uz general erau obținute din mărirea frecvenței de funcționare, folosirea unui număr mai mare de unități de calcul puse în paralel în interiorul unui nucleu(arhitectură super-scalară) sau a unei linii de execuție cu mai multe etape(arhitectură super-pipeline). Cu toate acestea, fără o creștere proporțională a vitezei memoriei, aceste abordări au dus doar la creșterea timpilor de acces la memorie. Mai mult, datorită imposibilității de a avea unui număr mare de accesări concurente la memorie, nucleele de
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
Arhitecturile cu memorie partajată sunt arhitecturi ce se găsesc in calculatoarele cu memorie partajată, unde există un spațiu comun de memorie pentru toate procesoarele din sistem. Aceste calculatoare mai sunt numite și multiprocesoare, iar datorită gradului mare de interacțiune între procesoare
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
Arhitecturile cu memorie partajată sunt arhitecturi ce se găsesc in calculatoarele cu memorie partajată, unde există un spațiu comun de memorie pentru toate procesoarele din sistem. Aceste calculatoare mai sunt numite și multiprocesoare, iar datorită gradului mare de interacțiune între procesoare, care împart aceeași memorie și
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
procesoarele din sistem. Aceste calculatoare mai sunt numite și multiprocesoare, iar datorită gradului mare de interacțiune între procesoare, care împart aceeași memorie și între care există o bună sincronizare, se spune că aceste sisteme au un cuplaj strâns. În cazul arhitecturilor cu memorie partajată s-a pornit de la mașina von Neumann, iar fiecărui procesor i s-a adăugat o memorie cache, pentru un acces mai rapid la date și instrucțiuni. Deoarece memoria este partajată, dezavantajul major îl constituie scăderea performanțelor sistemului
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
pentru un acces mai rapid la date și instrucțiuni. Deoarece memoria este partajată, dezavantajul major îl constituie scăderea performanțelor sistemului odată cu creșterea numărului de procesoare. În funcție de resurse, există două tipuri de sisteme, care la rândul lor se împart în următoarele arhitecturi: Calculatoarele din această categorie au ca trăsătură esențială faptul că procesoarele care folosesc o memorie partajată, au același timp de acces la memorie. Totuși un număr prea mare de procesoare poate introduce întârzieri, pentru că apare accesul concurent la aceeași resursă
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
care folosesc o memorie partajată, au același timp de acces la memorie. Totuși un număr prea mare de procesoare poate introduce întârzieri, pentru că apare accesul concurent la aceeași resursă. Procesoarele ce comunică cu memoria sunt conectate prin intermediul unei rețele. Această arhitectură reprezintă o îmbunătățire a versiunii anterioare. Aici fiecare procesor conține o memorie cache. Dacă datele necesare procesorului se găsesc în cache-ul aferent acestuia, atunci procesorul le utilizeaza, fără a mai apela la memoria partajată. Astfel se reduce timpul de acces
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
si accesul la aceeași resursă aflată în memorie. Dacă unele date din memoria partajată sunt conținute și în memoriile cache, atunci modificarea datelor din memoria comună presupune și modificarea datelor din memoriile cache, lucru necesar pentru asigurarea consistenței. În cazul arhitecturii NUMA, fiecare procesor are asociată o memorie locală, iar toate memoriile locale formează o memorie văzută ca un tot unitar, ca un spațiu unic de adrese. Atunci când procesorul accesează date din memoria locală, timpul de acces va fi unul scurt
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
din memoria locală de către un procesor și accesarea datelor dintr-o altă zonă, care nu este locală, de către același procesor. În mod normal acest factor se referă la primul și ultimul procesor din cadrul unei rețele (cele mai îndepărtate procesoare). În arhitectura COMA, memoriile cache ale fiecărui procesor vor forma un spațiu unic de adresare. În cazul de față, există un dispozitiv, numit controler de memorie, care are rolul de a aduce datele necesare fiecărui procesor în memoria sa cache locală. O
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
altui procesor, pentru ca noile date să poată fi aduse în memoria cache a procesorului care accesează datele. Controlerul de memorie are printre alte atribuții și aceea de a muta blocurile dintr-o memorie în alta. Acest model îmbină cele două arhitecturi: NUMA și COMA. Fiecare dintre procesoare are atât o memorie locală, cât și o memorie cache. Memoria cache este folosită în cazul în care datele de care are nevoie procesorul nu se găsesc în memoria locală. Pentru datele necesare procesoarelor
Arhitectură cu memorie partajată () [Corola-website/Science/322787_a_324116]
-
atât "paralel cât și "distribuit"ș procesele dintr-un sistem distribuit tipic rulează an paralel.Sistemele concurente pot fi clasificate ca fiind paralele sau distribuite în funcție de următoarele criterii: Utilizarea de procese concurente care comunică prin mesaj-trece își are rădăcinile în arhitecturile sistemelor de operare studiate în anii 1960. Primele sisteme distribuite pe scară largă au fost LAN-urile, cum ar fi Ethernet, care a fost inventat în anii 1970. ARPANET, predecesorul de Internet, a fost introdus la sfârșitul anilor 1960, si
Calcul distribuit () [Corola-website/Science/322837_a_324166]
-
comune, astfel încât să nu apară conflicte sau blocaje. Există, de asemenea, provocări fundamentale care sunt specifice calculului distribuit. Un exemplu ar fi provocările legate de toleranță la defecte. Exemple de probleme asemănătoare includ probleme legate de consens, , si autostabilizare. Diverse arhitecturi hardware și software sunt utilizate pentru calcul distribuit.La un nivel inferior, este necesară interconectarea a mai multor procesoare, într-un fel de rețea, indiferent dacă aceasta este pe o singură placă de circuite sau dacă este alcătuită dintr-o
Calcul distribuit () [Corola-website/Science/322837_a_324166]
-
serie de dispozitive interconectate prin cabluri.La un nivel superior, este necesară interconectarea proceselelor care rulează pe aceste procesoare cu un fel de sistem de comunicare. Sistemele de programare distribuite de obicei se încadrează într-una din următoarele categorii de arhitecturi: client-server, arhitectura 3-tier, arhitectura n-tier, obiecte distribuite, loose coupling, sau tight coupling.
Calcul distribuit () [Corola-website/Science/322837_a_324166]