13,065 matches
-
pe imagini, texte, dar și pe paginile de internet. Patru noi aplicații "Hub" de la Samsung au fost dezvăluite în cadrul "Mobile World Congress" din 2011: Samsung Galaxy S II vine cu un suport pentru multe formate multimedia și codec-uri. În cazul fișierelor audio, acesta suportă FLAC, WAV, Vorbis, MP3, AAC, AAC+, eAAC+, WMA, AMR-NB, AMR-WB, MID, AC3 și XMF. În cazul videoclipurilor, acesta suportă MPEG-4, H.264, H.263, DivX HD/XviD, VC-1, 3GP (MPEG-4), WMV (ASF) dar și AVI (DivX), MKV
Samsung Galaxy S II () [Corola-website/Science/326102_a_327431]
-
amplă de proiecte de afaceri. Fondatorul Hadoop este Doug Cutting, care a preluat informații din documentele publicate de Google și a implementat Google File System și în Nutch. Hadoop constă în utilitarele "Hadoop Common", care oferă acces la sistemul de fișiere Hadoop. Pachetul "Hadoop Common" conține fișierele în format JAR și scripturile necesare pentru a lansa Hadoop. Pachetul software care conține utilitarele Hadoop Common include de asemenea și codul sursă, documentația și secțiunea de contribuții, care reunește proiecte ale comunității de
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
Hadoop este Doug Cutting, care a preluat informații din documentele publicate de Google și a implementat Google File System și în Nutch. Hadoop constă în utilitarele "Hadoop Common", care oferă acces la sistemul de fișiere Hadoop. Pachetul "Hadoop Common" conține fișierele în format JAR și scripturile necesare pentru a lansa Hadoop. Pachetul software care conține utilitarele Hadoop Common include de asemenea și codul sursă, documentația și secțiunea de contribuții, care reunește proiecte ale comunității de dezvoltatori Hadoop. În scopul obținerii unei
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
a lansa Hadoop. Pachetul software care conține utilitarele Hadoop Common include de asemenea și codul sursă, documentația și secțiunea de contribuții, care reunește proiecte ale comunității de dezvoltatori Hadoop. În scopul obținerii unei planificări eficiente a activității, fiecare sistem de fișiere compatibil cu Hadoop trebuie să furnizeze informații legate de amplasament: numele switch-ului sau al suportului în care se află un nod care îndeplinește activitatea. Aplicațiile Hadoop pot folosi aceste informații pentru a executa activități pe nodul în care se află
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
a executa activități pe nodul în care se află informațiile, iar în eventualitatea în care eșuează în acest demers, pentru a comuta execuția pe același suport sau switch, pentru a reduce traficul pe magistrala principală de comunicație. Sistemul distribuit de fișiere Hadoop (HDFS) utilizează acest mecanism la replicarea informațiilor, pentru a păstra copii diferite ale acestora pe suporturi distincte. Obiectivul urmărit constă în reducerea impactului unei pene de curent la nivelul suportului sau al unei defecțiuni a unui switch, pentru ca informațiile
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
6 sau o versiune mai recentă. Scripturile standard de lansare și de oprire necesită setarea ssh între nodurile din cluster. Într-un cluster mai mare, controlul asupra HDFS se execută printr-un server dedicat NameNode, care stochează indexul sistemului de fișiere și printr-un NameNode secundar, care poate genera instantanee ale structurilor de memorie cu numele nodurilor, prevenind astfel coruperea sistemului de fișiere și reducând pierderea informațiilor. În mod similar, un server JobTracker independent poate executa controlul asupra planificării activităților. În
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
cluster mai mare, controlul asupra HDFS se execută printr-un server dedicat NameNode, care stochează indexul sistemului de fișiere și printr-un NameNode secundar, care poate genera instantanee ale structurilor de memorie cu numele nodurilor, prevenind astfel coruperea sistemului de fișiere și reducând pierderea informațiilor. În mod similar, un server JobTracker independent poate executa controlul asupra planificării activităților. În clusterele în care Hadoop MapReduce este implementat în conjuncție cu un sistem de fișiere alternativ, arhitectura HDFS care cuprinde NameNode, NameNode secundar
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
cu numele nodurilor, prevenind astfel coruperea sistemului de fișiere și reducând pierderea informațiilor. În mod similar, un server JobTracker independent poate executa controlul asupra planificării activităților. În clusterele în care Hadoop MapReduce este implementat în conjuncție cu un sistem de fișiere alternativ, arhitectura HDFS care cuprinde NameNode, NameNode secundar și DataNode este substituită cu un sistem de fișiere specific echivalent. HDFS este un sistem de fișiere distribuit, scalabil și portabil, scris în Java, pentru framework-ul Hadoop. Fiecare nod dintr-o instanță
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
server JobTracker independent poate executa controlul asupra planificării activităților. În clusterele în care Hadoop MapReduce este implementat în conjuncție cu un sistem de fișiere alternativ, arhitectura HDFS care cuprinde NameNode, NameNode secundar și DataNode este substituită cu un sistem de fișiere specific echivalent. HDFS este un sistem de fișiere distribuit, scalabil și portabil, scris în Java, pentru framework-ul Hadoop. Fiecare nod dintr-o instanță Hadoop are în mod uzual un singur nod pentru stocarea informației. Un cluster de noduri pentru stocarea
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
activităților. În clusterele în care Hadoop MapReduce este implementat în conjuncție cu un sistem de fișiere alternativ, arhitectura HDFS care cuprinde NameNode, NameNode secundar și DataNode este substituită cu un sistem de fișiere specific echivalent. HDFS este un sistem de fișiere distribuit, scalabil și portabil, scris în Java, pentru framework-ul Hadoop. Fiecare nod dintr-o instanță Hadoop are în mod uzual un singur nod pentru stocarea informației. Un cluster de noduri pentru stocarea informațiilor formează un cluster HDFS. Situația este specifică
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
pentru stocarea informației. Un cluster de noduri pentru stocarea informațiilor formează un cluster HDFS. Situația este specifică, întrucât nodurile nu necesită prezența unui DataNode. Fiecare DataNode deservește blocuri de informație din rețea prin intermediul unui protocol specific sistemului HDFS. Sistemul de fișiere utilizează protocolul TCP/IP pentru comunicație, în timp ce stațiile client utilizează protocolul RPC pentru a comunica între ele. HDFS stochează fișiere de dimensiuni mari (mărimea ideală a unui fișier este de 64MB), utilizând mai multe mașini de calcul. Replicarea informațiilor pe
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
necesită prezența unui DataNode. Fiecare DataNode deservește blocuri de informație din rețea prin intermediul unui protocol specific sistemului HDFS. Sistemul de fișiere utilizează protocolul TCP/IP pentru comunicație, în timp ce stațiile client utilizează protocolul RPC pentru a comunica între ele. HDFS stochează fișiere de dimensiuni mari (mărimea ideală a unui fișier este de 64MB), utilizând mai multe mașini de calcul. Replicarea informațiilor pe mai multe mașini gazdă conferă fiabilitate și nu necesită stocare pe discuri RAID la nivelul mașinii de calcul gazdă. Valoarea
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
de informație din rețea prin intermediul unui protocol specific sistemului HDFS. Sistemul de fișiere utilizează protocolul TCP/IP pentru comunicație, în timp ce stațiile client utilizează protocolul RPC pentru a comunica între ele. HDFS stochează fișiere de dimensiuni mari (mărimea ideală a unui fișier este de 64MB), utilizând mai multe mașini de calcul. Replicarea informațiilor pe mai multe mașini gazdă conferă fiabilitate și nu necesită stocare pe discuri RAID la nivelul mașinii de calcul gazdă. Valoarea implicită de replicare este 3, informațiile fiind stocate
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
un suport diferit. Nodurile de date pot comunica pentru a reechilibra datele, pentru a deplasa copii ale acestora și pentru a păstra replicarea datelor la un nivel înalt. HDFS nu este total compatibil cu POSIX, întrucât cerințele unui sistem de fișiere POSIX diferă de obiectivele aplicațiilor Hadoop. Compromisul de a renunța la o compatibilitate totală cu sistemul de fișiere POSIX se contrabalansează cu obținerea unei performanțe crescute a transferului de date. HDFS a fost conceput pentru a gestiona fișiere de dimensiuni
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
și pentru a păstra replicarea datelor la un nivel înalt. HDFS nu este total compatibil cu POSIX, întrucât cerințele unui sistem de fișiere POSIX diferă de obiectivele aplicațiilor Hadoop. Compromisul de a renunța la o compatibilitate totală cu sistemul de fișiere POSIX se contrabalansează cu obținerea unei performanțe crescute a transferului de date. HDFS a fost conceput pentru a gestiona fișiere de dimensiuni foarte mari. HDFS a adaugat recent capabilitați de înaltă disponibilitate, care permit ca în cazul unui eșec în
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
sistem de fișiere POSIX diferă de obiectivele aplicațiilor Hadoop. Compromisul de a renunța la o compatibilitate totală cu sistemul de fișiere POSIX se contrabalansează cu obținerea unei performanțe crescute a transferului de date. HDFS a fost conceput pentru a gestiona fișiere de dimensiuni foarte mari. HDFS a adaugat recent capabilitați de înaltă disponibilitate, care permit ca în cazul unui eșec în funcționare să fie realizată manual tranziția stării serverului central de metadate, denumit Namenode, în modul de restaurare a stării inițiale
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
să fie realizată manual tranziția stării serverului central de metadate, denumit Namenode, în modul de restaurare a stării inițiale și recuperarea datelor. Se fac demersuri pentru dezvoltarea unei modalități de tranziție automată în cazul unui eșec în funcționare. Sistemul de fișiere include și un Namenode secundar, care poate crea impresia eronată că atunci când nodul primar iese din funcțiune, rolul său este preluat de nodul secundar. În realitate, nodul secundar se conectează cu nodul primar și creează instantanee ale informațiilor din directorul
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
sunt apoi salvate în directoare locale sau la distanță. Imaginile de referință care se creează astfel pot fi utilizate pentru a reporni un nod primar care a avut un eșec în funcționare, fara reiterarea întregului jurnal cu acțiunile sistemului de fișiere și pentru editarea registrului în scopul creării unei structuri actualizate a directorului. Întrucât Namenode este un punct unic de stocare și management al metadatelor, performanța sistemului poate fi limitată la transferul unor fișiere de dimensiune mare și mai ales în
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
reiterarea întregului jurnal cu acțiunile sistemului de fișiere și pentru editarea registrului în scopul creării unei structuri actualizate a directorului. Întrucât Namenode este un punct unic de stocare și management al metadatelor, performanța sistemului poate fi limitată la transferul unor fișiere de dimensiune mare și mai ales în cazul unor fișiere numeroase de dimensiuni reduse. HDFS Federation este o nouă funcționalitate al cărei scop este să abordeze această problemă permitând ca mai multe NameSpace să fie deservite de Namenode-uri distincte. Printre
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
editarea registrului în scopul creării unei structuri actualizate a directorului. Întrucât Namenode este un punct unic de stocare și management al metadatelor, performanța sistemului poate fi limitată la transferul unor fișiere de dimensiune mare și mai ales în cazul unor fișiere numeroase de dimensiuni reduse. HDFS Federation este o nouă funcționalitate al cărei scop este să abordeze această problemă permitând ca mai multe NameSpace să fie deservite de Namenode-uri distincte. Printre avantajele utilizării HDFS se numară transferul informațiilor de localizare între
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
b, c) și (x, y, z) pentru nodul A. Metoda reduce traficul vehiculat în rețea și previne un transfer inutil de informații. Acest avantaj poate să nu mai fie evident dacă Hadoop este utilizat în conjuncție cu alt sistem de fișiere, întrucât acesta poate avea un impact semnificativ asupra perfomanței timpului de realizare a sarcinii, demonstrație facută la execuția unor prelucrări intensive de informație. O altă limitare a sistemului de fișiere Hadoop este imposibilitatea de a fi accesat direct de către un
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
dacă Hadoop este utilizat în conjuncție cu alt sistem de fișiere, întrucât acesta poate avea un impact semnificativ asupra perfomanței timpului de realizare a sarcinii, demonstrație facută la execuția unor prelucrări intensive de informație. O altă limitare a sistemului de fișiere Hadoop este imposibilitatea de a fi accesat direct de către un sistem de operare existent. Extragerea și introducerea informațiilor în sistemul de fișiere HDFS, înainte sau dupa execuția unei sarcini, pot prezenta deseori inconveniente. Pentru rezolvarea acestei probleme a fost dezvoltat
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
realizare a sarcinii, demonstrație facută la execuția unor prelucrări intensive de informație. O altă limitare a sistemului de fișiere Hadoop este imposibilitatea de a fi accesat direct de către un sistem de operare existent. Extragerea și introducerea informațiilor în sistemul de fișiere HDFS, înainte sau dupa execuția unei sarcini, pot prezenta deseori inconveniente. Pentru rezolvarea acestei probleme a fost dezvoltat un sistem de fișiere virtual în spatiul de lucru al utilizatorului (FUSE), pentru sistemele de operare Linux și Unix. Accesul la fișier
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
de a fi accesat direct de către un sistem de operare existent. Extragerea și introducerea informațiilor în sistemul de fișiere HDFS, înainte sau dupa execuția unei sarcini, pot prezenta deseori inconveniente. Pentru rezolvarea acestei probleme a fost dezvoltat un sistem de fișiere virtual în spatiul de lucru al utilizatorului (FUSE), pentru sistemele de operare Linux și Unix. Accesul la fișier poate fi obținut printr-un API Java nativ, prin Thrift API care să genereze un client în limbajul de programare selectat de
Apache Hadoop () [Corola-website/Science/326248_a_327577]
-
fișiere HDFS, înainte sau dupa execuția unei sarcini, pot prezenta deseori inconveniente. Pentru rezolvarea acestei probleme a fost dezvoltat un sistem de fișiere virtual în spatiul de lucru al utilizatorului (FUSE), pentru sistemele de operare Linux și Unix. Accesul la fișier poate fi obținut printr-un API Java nativ, prin Thrift API care să genereze un client în limbajul de programare selectat de utilizator (C++, Java, Python, PHP, Ruby, Erlang, Perl, Haskell, C#, Cocoa, Smalltalk și Ocaml), prin linia de comandă
Apache Hadoop () [Corola-website/Science/326248_a_327577]