10,710 matches
-
frații Neumann, în 1851. Statistici oficiale înregistrau în anii 1869 - 1870 un număr de 5.074 antreprenori, 6.839 funcționari și 11.913 muncitori. Totodată, 2.645 locuitori ai orașului erau țărani. Crește spațiul clădit al orașului cuprinzând, pe lângă vechiul nucleu din secolul al XVIII-lea, actuala zonă Centrală și cartierele Pârneava, Șega, Gai și Mureșel. Între 1870-1914 se construiesc edificii civile impunătoare, instituții și clădiri destinate unor întreprinderi. Paralel (1879 - 1888) se pun bazele actualelor diguri, ca urmare a revărsărilor
Istoria Aradului () [Corola-website/Science/322607_a_323936]
-
utilă în cazul în care se dorește rularea unor aplicații pentru CUDA. '*' - OEM-only products Un table al dispozitivelor care compatibile oficial cu CUDA: Arhitectură CUDA constă în următoarele componente de bază: Un program scris pentru CUDA apelează o serie de nuclee paralele. Un nucleu se execută în paralel pe un set de thread-uri. Gruparea thread-urilor în blocuri rămâne la latitudinea compilatorului sau a programatorului. Procesorul grafic instanțiază un program nucleu ("kernel program" în engleză) într-o grila de blocuri de thread-uri
CUDA () [Corola-website/Science/322713_a_324042]
-
în care se dorește rularea unor aplicații pentru CUDA. '*' - OEM-only products Un table al dispozitivelor care compatibile oficial cu CUDA: Arhitectură CUDA constă în următoarele componente de bază: Un program scris pentru CUDA apelează o serie de nuclee paralele. Un nucleu se execută în paralel pe un set de thread-uri. Gruparea thread-urilor în blocuri rămâne la latitudinea compilatorului sau a programatorului. Procesorul grafic instanțiază un program nucleu ("kernel program" în engleză) într-o grila de blocuri de thread-uri. Fiecare thread din
CUDA () [Corola-website/Science/322713_a_324042]
-
de bază: Un program scris pentru CUDA apelează o serie de nuclee paralele. Un nucleu se execută în paralel pe un set de thread-uri. Gruparea thread-urilor în blocuri rămâne la latitudinea compilatorului sau a programatorului. Procesorul grafic instanțiază un program nucleu ("kernel program" în engleză) într-o grila de blocuri de thread-uri. Fiecare thread din interiorul unui bloc execută o instanță a nucleului și este identificat prin contorul program, regiștri, memorie/thread, parametri de intrare și rezultate (ieșiri). Într-o grila
CUDA () [Corola-website/Science/322713_a_324042]
-
de thread-uri. Gruparea thread-urilor în blocuri rămâne la latitudinea compilatorului sau a programatorului. Procesorul grafic instanțiază un program nucleu ("kernel program" în engleză) într-o grila de blocuri de thread-uri. Fiecare thread din interiorul unui bloc execută o instanță a nucleului și este identificat prin contorul program, regiștri, memorie/thread, parametri de intrare și rezultate (ieșiri). Într-o grila se execută același nucleu, se citesc intrările din memoria globală, se scriu rezultatele în memoria globală și se sincronizează apelurile de nuclee
CUDA () [Corola-website/Science/322713_a_324042]
-
engleză) într-o grila de blocuri de thread-uri. Fiecare thread din interiorul unui bloc execută o instanță a nucleului și este identificat prin contorul program, regiștri, memorie/thread, parametri de intrare și rezultate (ieșiri). Într-o grila se execută același nucleu, se citesc intrările din memoria globală, se scriu rezultatele în memoria globală și se sincronizează apelurile de nuclee. În modelul CUDA, fiecărui thread îi este asociat un spațiu de memorie privat, utilizat pentru regiștri, apeluri de funcții și variabile C.
CUDA () [Corola-website/Science/322713_a_324042]
-
nucleului și este identificat prin contorul program, regiștri, memorie/thread, parametri de intrare și rezultate (ieșiri). Într-o grila se execută același nucleu, se citesc intrările din memoria globală, se scriu rezultatele în memoria globală și se sincronizează apelurile de nuclee. În modelul CUDA, fiecărui thread îi este asociat un spațiu de memorie privat, utilizat pentru regiștri, apeluri de funcții și variabile C. Fiecare bloc de thread-uri deține un spațiu de memorie rezervat comunicării între thread-uri, schimb de date și rezultate
CUDA () [Corola-website/Science/322713_a_324042]
-
C. Fiecare bloc de thread-uri deține un spațiu de memorie rezervat comunicării între thread-uri, schimb de date și rezultate. Grilele de blocuri de thread-uri pun rezultatele în memoria globală după ce s-a realizat în prealabil o sincronizare de-a lungul nucleelor. Un procesor video execută una sau mai multe grile de nuclee. Un multiprocesor pentru procesarea fluxurilor de date ("streaming multiprocessor") execută unul sau mai multe blocuri de thread-uri. Nucleele CUDA și celelalte unități de execuție din cadrul unui "SM" execută thread-uri
CUDA () [Corola-website/Science/322713_a_324042]
-
comunicării între thread-uri, schimb de date și rezultate. Grilele de blocuri de thread-uri pun rezultatele în memoria globală după ce s-a realizat în prealabil o sincronizare de-a lungul nucleelor. Un procesor video execută una sau mai multe grile de nuclee. Un multiprocesor pentru procesarea fluxurilor de date ("streaming multiprocessor") execută unul sau mai multe blocuri de thread-uri. Nucleele CUDA și celelalte unități de execuție din cadrul unui "SM" execută thread-uri. Un "SM" execută un grup de 32 de thread-uri, numit și
CUDA () [Corola-website/Science/322713_a_324042]
-
după ce s-a realizat în prealabil o sincronizare de-a lungul nucleelor. Un procesor video execută una sau mai multe grile de nuclee. Un multiprocesor pentru procesarea fluxurilor de date ("streaming multiprocessor") execută unul sau mai multe blocuri de thread-uri. Nucleele CUDA și celelalte unități de execuție din cadrul unui "SM" execută thread-uri. Un "SM" execută un grup de 32 de thread-uri, numit și "warp". În noiembrie 2006 NVIDIA a lansat prima placă video cu nucleul G80, GeForce 8800. În iunie 2008
CUDA () [Corola-website/Science/322713_a_324042]
-
sau mai multe blocuri de thread-uri. Nucleele CUDA și celelalte unități de execuție din cadrul unui "SM" execută thread-uri. Un "SM" execută un grup de 32 de thread-uri, numit și "warp". În noiembrie 2006 NVIDIA a lansat prima placă video cu nucleul G80, GeForce 8800. În iunie 2008, arhitectura G80 a fost îmbunătățită seminficativ și redenumită GT200. Această îngloba 240 de nuclee CUDA față de cele 128 în cazul G80. Primul procesor grafic proiectat pe arhitectură Fermi conține 3 miliarde de tranzistoare. Dispune
CUDA () [Corola-website/Science/322713_a_324042]
-
execută un grup de 32 de thread-uri, numit și "warp". În noiembrie 2006 NVIDIA a lansat prima placă video cu nucleul G80, GeForce 8800. În iunie 2008, arhitectura G80 a fost îmbunătățită seminficativ și redenumită GT200. Această îngloba 240 de nuclee CUDA față de cele 128 în cazul G80. Primul procesor grafic proiectat pe arhitectură Fermi conține 3 miliarde de tranzistoare. Dispune de 512 nuclee CUDA care sunt grupate în 16 "SM (streaming multiprocessors)". Principalele modificări aduse arhitecturii existente vizează: Exemplu de
CUDA () [Corola-website/Science/322713_a_324042]
-
8800. În iunie 2008, arhitectura G80 a fost îmbunătățită seminficativ și redenumită GT200. Această îngloba 240 de nuclee CUDA față de cele 128 în cazul G80. Primul procesor grafic proiectat pe arhitectură Fermi conține 3 miliarde de tranzistoare. Dispune de 512 nuclee CUDA care sunt grupate în 16 "SM (streaming multiprocessors)". Principalele modificări aduse arhitecturii existente vizează: Exemplu de cod C++ care încărca o textura într-o matrice din procesorul grafic: void foo() global void kernel(float* odată, int height, int width
CUDA () [Corola-website/Science/322713_a_324042]
-
în paralel. Acest lucru este eficient în mod deosebit atunci când programatorul dorește să proceseze multe noduri și fragmente în același mod. În acest sens, GPU-urile sunt procesoare în flux - procesoare care pot opera în paralel prin rularea unui singur nucleu în același timp pe mai multe înregistrări dintr-un flux. Un flux este un set simplu de înregistrări care necesită calcul similar. Fluxurile furnizează paralelism de date. Nucleele (în engleză kernel) sunt funcțiile care sunt aplicate fiecărui element din flux
GPGPU () [Corola-website/Science/322733_a_324062]
-
în flux - procesoare care pot opera în paralel prin rularea unui singur nucleu în același timp pe mai multe înregistrări dintr-un flux. Un flux este un set simplu de înregistrări care necesită calcul similar. Fluxurile furnizează paralelism de date. Nucleele (în engleză kernel) sunt funcțiile care sunt aplicate fiecărui element din flux. În GPU-uri, nodurile și fragmentele sunt elementele din fluxuri și shaderele vertex și fragment sunt nucleele pe care sunt rulate acestea. Deoarece GPU-urile procesează elemente independent
GPGPU () [Corola-website/Science/322733_a_324062]
-
de înregistrări care necesită calcul similar. Fluxurile furnizează paralelism de date. Nucleele (în engleză kernel) sunt funcțiile care sunt aplicate fiecărui element din flux. În GPU-uri, nodurile și fragmentele sunt elementele din fluxuri și shaderele vertex și fragment sunt nucleele pe care sunt rulate acestea. Deoarece GPU-urile procesează elemente independent nu există posibilitatea de a avea date partajate sau statice. Pentru fiecare element se poate citi de la intrare, se poate executa operații pe el, și se poate afișa la
GPGPU () [Corola-website/Science/322733_a_324062]
-
rețele: algebra matricială, procesarea de imagini, simularea bazată pe fizică, și așa mai departe. Din moment ce texturile sunt folosite ca memorie, căutările de textură sunt folosite ca citiri de memorie. Anumite operații pot fi realizate automat de către GPU datorită acestui fapt. Nucleele pot fi considerate ca fiind corpul buclei. De exemplu, dacă programatorul operează pe o rețea de pe microprocesor, codul ar arăta astfel: În GPU, programatorul specifică doar corpul buclei ca nucleu și ce date trebuie utilizate de procesarea geometrică invocată. În
GPGPU () [Corola-website/Science/322733_a_324062]
-
operații pot fi realizate automat de către GPU datorită acestui fapt. Nucleele pot fi considerate ca fiind corpul buclei. De exemplu, dacă programatorul operează pe o rețea de pe microprocesor, codul ar arăta astfel: În GPU, programatorul specifică doar corpul buclei ca nucleu și ce date trebuie utilizate de procesarea geometrică invocată. În codul secvențial este posibil să se controleze fluxul programului utilizând sintaxe if-then-else și forme variate de bucle. Asemenea structuri de control al fluxului au fost adăugate de curând la GPU
GPGPU () [Corola-website/Science/322733_a_324062]
-
în buclele interne, indiferent de microprocesor sau codul GPU, și tehnici variate, cum ar fi rezoluția static de ramură, pre-calcul, și Z-cull pot fi utilizate pentru a realiza branșamentul atunci când suportul hardware nu există. Operația de mapare aplică funcția dată (nucleul) fiecărui element din flux. Un exemplu simplu este multiplicarea fiecărei valori din flux cu o constantă (crescând luminozitatea unei imagini). Operația de mapare este simplu de implementat pe un GPU. Programatorul generează un fragment pentru fiecare pixel de pe ecran și
GPGPU () [Corola-website/Science/322733_a_324062]
-
ani începând din martie 2001 cu un buget conform Sony ce se apropie de 400 de milioane de dolari americani. Cell este prescurtarea de la Cell Broadband Engine Architecture, prescurtat frecvent CBEA sau Cell BE. Procesorul Cell este format dintr-un nucleu de procesare de uz general cu arhitectură PowerPC cu performanțe relativ modeste și mai multe co-procesoare pentru accelerarea execuției aplicațiilor de tip multimedia, a calculelor vectoriale sau a altor tipuri de aplicații specializate. Prima aplicație comercială importantă Cell a fost
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
GeForce de la Nvidia sau Radeon de la ATI. Până la apariția sa creșterile de performantă ale unui procesor de uz general erau obținute din mărirea frecvenței de funcționare, folosirea unui număr mai mare de unități de calcul puse în paralel în interiorul unui nucleu(arhitectură super-scalară) sau a unei linii de execuție cu mai multe etape(arhitectură super-pipeline). Cu toate acestea, fără o creștere proporțională a vitezei memoriei, aceste abordări au dus doar la creșterea timpilor de acces la memorie. Mai mult, datorită imposibilității
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
etape(arhitectură super-pipeline). Cu toate acestea, fără o creștere proporțională a vitezei memoriei, aceste abordări au dus doar la creșterea timpilor de acces la memorie. Mai mult, datorită imposibilității de a avea unui număr mare de accesări concurente la memorie, nucleele de procesare complexe ajung să nu folosească la maxim linia de execuție(engleză:pipeline) și lățimea de bandă maximă a memoriei. Aceste neajunsuri duc la utilizarea deficitară a spațiului pe pastila de siliciu și o creștere disproporționată a puterii disipate
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
a puterii disipate în raport cu performanța generală. Abordarea adoptată de către "STI" pentru Cell a fost concentrarea pe îmbunătățirea raportului între performanță și suprafață și a raportului între performanță și puterea disipată. Aceste obiective sunt în mare parte realizate prin utilizarea unor nuclee puternice dar simple ce folosesc suprafața pastilei de siliciu mai eficient și cu o putere disipată mai mică. Susținute de o interconectare cu lățime de bandă mare, aceste nuclee pot lucra atât independent cât și împreună. Prin suportarea unui număr
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
disipată. Aceste obiective sunt în mare parte realizate prin utilizarea unor nuclee puternice dar simple ce folosesc suprafața pastilei de siliciu mai eficient și cu o putere disipată mai mică. Susținute de o interconectare cu lățime de bandă mare, aceste nuclee pot lucra atât independent cât și împreună. Prin suportarea unui număr mare de accesări simultane de memorie de către nuclee, lățimea de banda disponibilă poate fi folosită mai eficient. Această filosofie de design este oarecum similară cu tendințele actuale de a
Cell (procesor) () [Corola-website/Science/322782_a_324111]
-
de siliciu mai eficient și cu o putere disipată mai mică. Susținute de o interconectare cu lățime de bandă mare, aceste nuclee pot lucra atât independent cât și împreună. Prin suportarea unui număr mare de accesări simultane de memorie de către nuclee, lățimea de banda disponibilă poate fi folosită mai eficient. Această filosofie de design este oarecum similară cu tendințele actuale de a avea mai multe nuclee de uz general în același cip,însă în Cell nucleele sunt mai simple, dar mai
Cell (procesor) () [Corola-website/Science/322782_a_324111]