Vor înlocui rețelele neuronale artificiale procesoarele convenționale? Vor deveni procesoarele mobile neuronale o nouă piatră de hotar în dezvoltarea tehnologiei inteligenței artificiale?

companie chineză Huawei a anunțat Kirin 970 - primul chipset care are un dedicat procesor neuronal(NPU). În urma chinezilor, Apple și-a prezentat A11 Bionic pentru Modele de iPhone 8, 8 Plus și X. Acest cip, printre altele, suportă tehnologia Neural Engine, care, potrivit reprezentanților companiei, este „special concepută pentru învățare automată" Destul de recent, Qualcomm a introdus cipul său Snapdragon 845, care poate transfera sarcini legate de inteligența artificială către anumite nuclee. Nu există nicio diferență deosebită în abordările companiilor. Totul depinde de disponibil pentru dezvoltatori nivelurile de control de bază și eficiența energetică a cipului.

Dar sunt noile cipuri într-adevăr semnificativ diferite de analogii existenți pe piață și, dacă da, care este diferența lor? Răspunsul la aceasta poate fi dat de termenul care se găsește adesea în rapoartele despre inteligența artificială - „computing heterogen”. Se aplică procesoarelor care utilizează caracteristici de sistem specializate pentru a îmbunătăți performanța sau a reduce consumul de energie. Această abordare a fost deja implementată în mod repetat în generațiile anterioare de cipuri. Nou procesoare mobile pur și simplu folosesc acest concept cu unele variații.

Dezvoltare naturală?

ÎN generațiile recente procesoarele folosesc în mod activ tehnologia ARM Big .Little. Combină miezuri lente, eficiente din punct de vedere energetic cu altele mai productive, care au un consum mare de energie. Ideea a fost reducerea cantității de energie pentru a crește autonomia dispozitivelor. Anul trecut, cipurile neuronale au făcut un alt pas în această direcție, adăugând un element separat pentru sarcinile de procesare inteligenţă artificială, sau, în cazul , folosind nuclee separate de putere redusă pentru această sarcină.

Procesorul mobil A11 Bionic de la Apple folosește Neural Engine în combinație cu un cip grafic pentru a accelera Face ID, Animoji și pentru a accelera unele aplicații non-native. Când utilizatorul rulează aceste procese iPhone nou, cipul include un Motor Neural pentru a procesa fața purtătorului sau pentru a proiecta expresiile faciale pe o imagine animată.

NPU preia funcțiile de scanare și traducere a cuvintelor din imaginile obținute din folosind Microsoft Traducător. Cu toate acestea, deocamdată programul este singurul aplicație terță parte, lucrând cu adaptate Producător chinez tehnologie. Potrivit Huawei, tehnologie nouă HiAI accelerează majoritatea elementelor chipset-ului și este capabil să realizeze o gamă mult mai largă de sarcini decât alte NPU.

Noi orizonturi

Considerată separat, tehnologia face posibilă realizarea, cu o eficiență nu mai mică, direct pe dispozitiv a acelor sarcini care au fost procesate anterior folosind soluții cloud terțe. Cu ajutorul unor componente noi, un telefon echipat cu astfel de cipuri va putea funcționa mai multă acțiune simultan. Acest lucru va afecta multe aspecte ale funcționării dispozitivului, de la reducerea timpului de traducere până la căutarea de fotografii folosind hashtag-uri interne. De asemenea, transferul execuției unor astfel de procese direct pe smartphone în loc să fie utilizat soluții cloud va avea un impact pozitiv asupra securității și confidențialității, reducând șansele ca hackerii să pună mâna pe datele utilizatorilor.

Încă una punct important Noile cipuri reprezintă consumul de energie, deoarece energia este o resursă valoroasă care necesită o distribuție rezonabilă, mai ales când vine vorba de sarcini repetitive. Chip-uri grafice le place să consume foarte repede rezervele de baterie, așa că descărcarea proceselor lor într-un DSP ar putea fi o soluție bună.

De fapt, procesoarele mobile în sine nu pot lua decizii în mod independent cu privire la nucleele care trebuie utilizate atunci când execută anumite sarcini. Acest lucru depinde de dezvoltatorii și producătorii de echipamente care folosesc biblioteci acceptate de terți pentru aceasta. și să integreze în mod activ soluții precum TensorFlow Lite și Facebook Caffe2. Qualcomm acceptă, de asemenea, noul schimb de rețele neuronale deschise (ONNX), iar Apple a adăugat recent interoperabilitate pentru multe modele noi de învățare automată. Cadrul de bază ML.

Din păcate, noile procesoare mobile nu oferă încă avantaje speciale. Producătorii sunt deja măsurați după propriile lor rezultate ale testelor și repere. Dar fără o integrare strânsă cu mediul utilizator modernÎn realitate, acești indicatori au puțină semnificație. Tehnologia în sine se află într-un stadiu foarte incipient de dezvoltare, iar dezvoltatorii care o folosesc sunt încă puțini și împrăștiați.

În orice caz, fiecare tehnologie nouă este un câștig pentru utilizator, fie că este vorba despre creșterea productivității sau eficiența energetică îmbunătățită. Producătorii sunt serioși să investească timp și bani în dezvoltarea cipurilor neuronale, ceea ce înseamnă că viitoarele procesoare mobile vor putea oferi o listă mult mai largă de sarcini care vor implica inteligența artificială.

IBM Corporation a depășit următorul pas în crearea unui cip pentru viitoarele supercalculatoare - un cip neuronal care funcționează pe principiul creier uman. Particularitatea unui astfel de cip este că este capabil de auto-învățare și, de asemenea, consumă de sute de mii de ori mai puțină energie decât microprocesoarele convenționale. Noul cip poate deja analiza informatii vizuale, ceea ce este confirmat de rezultatele testelor.

Majoritate calculatoare moderne dispuse după principiul arhitecturii von Neumann. Se bazează pe stocarea în comun a datelor și comenzilor, în timp ce în exterior ele nu se pot distinge: aceleași informații pot deveni date, o comandă sau o adresă, în funcție de modul în care este accesată. Tocmai acest principiu de funcționare al arhitecturii von Neumann i-a creat dezavantajul semnificativ - așa-numitul blocaj (limitare lățime de bandăîntre procesor și memorie). Procesorul este forțat în mod constant să aștepte datele necesare, deoarece memoria programului și memoria datelor nu pot fi accesate în același timp: la urma urmei, acestea sunt stocate pe aceeași magistrală.

Această problemă a fost rezolvată de programatorul american Howard Aiken, autorul arhitecturii Harvard. Diferă de arhitectura von Neumann prin faptul că datele și liniile de instrucțiuni sunt separate fizic, permițând procesorului să citească simultan instrucțiuni și să acceseze date, îmbunătățind viteza computerului. În ciuda acestui fapt, la sfârșitul anilor 1930, la concursul pentru dezvoltarea unui computer pentru artileria navală, anunțat de guvernul SUA, arhitectura von Neumann a câștigat datorită ușurinței implementării.

Mai târziu a devenit posibilă creație sisteme hibride, combinând avantajele ambelor arhitecturi. Cu toate acestea, odată cu dezvoltarea programării, mințile oamenilor de știință au început să fie ocupate de ideea de a crea sisteme neuronale artificiale: procesoare conectate și interacționând între ele, funcționând pe principiul funcționării celulelor nervoase ale unei vieți. organism. Particularitatea unor astfel de sisteme este că nu sunt programate, ci antrenate.

Conceptul de rețea neuronală artificială a apărut atunci când a studiat funcționarea rețelelor neuronale biologice - un set de sistem nervos neuroni care îndeplinesc funcții fiziologice specifice. Fiecare neuron este conectat la o sumă imensă altele, locul unde neuronii intră în contact unii cu alții se numește sinapsă, care servește la transmiterea impulsurilor nervoase între celule.

Pionierii în crearea rețelelor neuronale artificiale au fost americanii Warren McCulloch și Walter Pitts. La începutul anilor 1940, oamenii de știință au inventat un model de creier care privea simplist neuronii ca dispozitive de operare. numere binare. Rețeaua de „neuroni” electronici pe care au inventat-o ​​ar putea efectua teoretic operații numerice sau logice de orice complexitate. Fundamentele teoretice fundamental noi pentru un astfel de model al creierului au pus bazele dezvoltării ulterioare a neurotehnologiilor și urmatorul pas nu m-a făcut să aștept.

Deja în 1949, Donald Hebb a propus primul algoritm de lucru pentru antrenarea sistemelor neuronale artificiale, iar în 1958, Frank Rosenblatt a creat primul neurocomputer „Mark-1”. Acest computer a fost construit pe baza unui perceptron, o rețea neuronală dezvoltată de Rosenblatt cu trei ani mai devreme.

Una dintre cele mai promițătoare zone pentru dezvoltarea unor arhitecturi fundamental noi sisteme de calcul este strâns legată de crearea unei noi generații de calculatoare bazate pe principiile procesării informațiilor încorporate în rețele neuronale artificiale(NS). Prima lucrare practică asupra rețelelor neuronale artificiale și a neurocalculatoarelor a început în anii 40 și 50. O rețea neuronală este de obicei înțeleasă ca un set de convertoare de informații elementare, numite „neuroni”, care sunt conectate într-un anumit fel între ele prin canale de schimb de informații „conexiuni sinaptice”.

Neuron, în esență, este un procesor elementar caracterizat prin stări de intrare și ieșire, o funcție de transfer (funcție de activare) și memorie locală. Stările neuronilor se modifică în timpul funcționării și constituie memoria pe termen scurt a rețelei neuronale. Fiecare neuron calculează suma ponderată a semnalelor care ajung la el prin sinapse și efectuează o transformare neliniară asupra acestuia. Când sunt trimise peste sinapse, semnalele sunt multiplicate cu un anumit factor de ponderare. Distribuția coeficienților de ponderare conține informații stocate în memorie asociativă NS. Elementul principal al proiectării rețelei este pregătirea acesteia. Când antrenați și reinstruiți o rețea neuronală, coeficienții ei de ponderare se modifică. Cu toate acestea, ele rămân constante în timpul funcționării rețelei neuronale, formând memoria pe termen lung.

N C poate consta dintr-un strat, două straturi, trei și Mai mult Cu toate acestea, de regulă, pentru a rezolva probleme practice nu sunt necesare mai mult de trei straturi într-o rețea neuronală.

Numărul de intrări NN determină dimensiunea hiperspațiului, în care semnalele de intrare pot fi reprezentate prin puncte sau hiperregiuni de puncte apropiate. Numărul de neuroni dintr-un strat de rețea determină numărul de hiperplanuri din hiperspațiu. Calcularea sumelor ponderate și efectuarea unei transformări neliniare fac posibilă determinarea în ce parte a unui anumit hiperplan este situat punctul semnalului de intrare în hiperspațiu.

Să luăm problema clasică a recunoașterii modelelor: a determina dacă un punct aparține uneia dintre cele două clase. Această problemă este rezolvată în mod natural folosind un singur neuron. Acesta va permite ca hiperspațiul să fie împărțit în două hiperregiuni neintersectate și neimbricate. În realitate, semnalele de intrare în problemele rezolvate cu ajutorul rețelelor neuronale formează zone foarte imbricate sau care se intersectează în hiperspațiu, care nu pot fi separate folosind un singur neuron. Acest lucru se poate face numai prin desenarea unei hipersuprafețe neliniare între regiuni. Poate fi descris folosind un polinom de ordinul al n-lea. Cu toate acestea, funcția de putere este prea lentă pentru a fi calculată și, prin urmare, este foarte incomod tehnologia calculatoarelor. O opțiune alternativă este aproximarea suprafeței cu hiperplane liniare. Este clar că acuratețea aproximării depinde de numărul de hiperplanuri utilizate, care, la rândul său, depinde de numărul de neuroni din rețea. Prin urmare, apare necesitatea implementării hardware a cât mai multor neuroni în rețea. Numărul de neuroni dintr-un strat al rețelei determină rezoluția acesteia. O rețea neuronală cu un singur strat nu poate separa imaginile dependente liniar. Prin urmare, este important să putem implementa rețele neuronale multistrat în hardware.

ȘI artificial rețele neuronale au proprietăți uimitoare. Ele nu necesită o dezvoltare software detaliată și deschid posibilitatea de a rezolva probleme pentru care nu există modele teoretice sau reguli euristice care să determine algoritmul de rezolvare. Astfel de rețele au capacitatea de a se adapta la schimbările condițiilor de funcționare, inclusiv la apariția unor factori neprevăzuți anterior. Prin natura lor, NS-urile sunt sisteme cu foarte nivel inalt paralelism.

ÎN neurocalculatoare se folosesc principiile procesării informaţiei efectuate în reţele neuronale reale. Aceste instrumente de calcul fundamental noi, cu o arhitectură neconvențională, permit procesarea de înaltă performanță a matricelor de informații la scară largă. Spre deosebire de sistemele de calcul tradiționale, computerele din rețele neuronale, similare rețelelor neuronale, fac posibilă procesarea cu o viteză mai mare fluxurile de informații discretă şi semnale continue, conțin elemente simple de calcul și cu un grad ridicat de fiabilitate vă permit să rezolvați sarcini de informare prelucrarea datelor, asigurând în același timp un mod de auto-reconstrucție a mediului de calcul în funcție de deciziile primite.

În general, termenul „Neurocomputer” înseamnă în prezent o clasă destul de largă de computere. Acest lucru se întâmplă din simplul motiv că în mod formal, orice implementare hardware a unui algoritm de rețea neuronală poate fi considerată un neurocomputer, de la un simplu model al unui neuron biologic la un sistem de recunoaștere a caracterelor sau ținte în mișcare. Neurocalculatoarele nu sunt computere în sensul convențional al cuvântului. În prezent, tehnologia nu a atins încă nivelul de dezvoltare la care s-ar putea vorbi despre un neurocomputer scop general(care ar fi și inteligență artificială). Sisteme cu valori fixe coeficienții de ponderare sunt în general cei mai specializați din familia rețelelor neuronale. Rețelele de învățare sunt mai flexibile la varietatea de probleme pe care le rezolvă. Astfel, construcția unui neurocomputer este de fiecare dată cel mai larg domeniu pentru activități de cercetare în domeniul implementării hardware a aproape tuturor elementelor rețelei neuronale.

La începutul secolului XXI, spre deosebire de anii 40-50 ai secolului trecut, există o nevoie practică obiectivă de a învăța cum să faci neurocalculatoare, adică. este necesar să se implementeze în hardware destul de mulți neuroni care funcționează în paralel, cu milioane de conexiuni-sinapse modificate adaptativ fixe sau paralel, cu mai multe straturi de neuroni complet conectate. În același timp, tehnologia electronică integrată este aproape de a-și epuiza capacitățile fizice. Dimensiunile geometrice ale tranzistoarelor nu mai pot fi reduse fizic: cu dimensiuni realizabile tehnologic de ordinul a 1 micron sau mai puțin, apar fenomene fizice imperceptibile la dimensiuni mari elemente active- efectele de dimensiune cuantică încep să aibă un efect puternic. Tranzistorii nu mai funcționează ca tranzistori.

Pentru implementarea hardware a NN, este necesar un nou mediu de stocare. Un astfel de transportator de informații nou ar putea fi ușoară, care va crește dramatic performanța de calcul cu câteva ordine de mărime.

Singura tehnologie pentru implementarea hardware a rețelelor neuronale care poate înlocui optica și optoelectronica în viitor este nanotehnologiei, capabilă să asigure nu numai gradul maxim de integrare fizic posibil a elementelor cuantice submoleculare cu viteza maximă fizică posibilă, ci și arhitectura tridimensională atât de necesară implementării hardware a rețelei neuronale.

Multă vreme s-a crezut că neurocalculatoarele sunt eficiente pentru rezolvarea așa-numitelor probleme neformalizabile și slab formalizabile asociate cu necesitatea includerii procesului de învățare folosind material experimental real în algoritmul de rezolvare a problemelor. În primul rând, astfel de probleme au inclus sarcina de a aproxima o anumită formă de funcții care iau un set discret de valori, de exemplu. problemă de recunoaștere a modelelor.

În prezent, la această clasă de probleme i se adaugă o clasă de probleme, care uneori nu necesită pregătire pe material experimental, dar sunt bine reprezentate într-o bază logică a rețelei neuronale. Acestea includ sarcini cu paralelism natural pronunțat de procesare a semnalului, procesare a imaginilor etc.. Confirmarea punctului de vedere că în viitor neurocalculatoarele vor fi mai eficiente decât alte arhitecturi poate fi, în special, o expansiune bruscă în anul trecut clasă de probleme matematice generale rezolvate într-o bază logică a rețelei neuronale. Acestea, pe lângă cele enumerate mai sus, includ rezolvarea de probleme liniare și neliniare ecuații algebriceși inegalități dimensionale înalte; sisteme neliniare ecuatii diferentiale; ecuații cu diferențe parțiale; probleme de optimizare și alte probleme.

O rețea neuronală este de obicei înțeleasă ca un set de convertoare de informații elementare numite „neuroni”, care într-un anumit fel conectate între ele prin canale de schimb de informații - „conexiuni sinaptice”.

Un neuron este în esență un procesor elementar caracterizat printr-o stare de intrare și de ieșire, o funcție de transfer (funcție de activare) și memorie locală.


Orez. 8.1.

Stările neuronilor se modifică în timpul funcționării și constituie memoria pe termen scurt a rețelei neuronale. Fiecare neuron calculează suma ponderată a semnalelor care ajung la el prin sinapse și efectuează o transformare neliniară asupra acestuia. Când sunt trimise peste sinapse, semnalele sunt multiplicate cu un anumit factor de ponderare. Distribuția coeficienților de greutate conține informații stocate în memoria asociativă a rețelei neuronale. Elementul principal al proiectării rețelei este pregătirea acesteia. Când antrenați și reinstruiți o rețea neuronală, coeficienții ei de ponderare se modifică. Cu toate acestea, ele rămân constante în timpul funcționării rețelei neuronale, formând memoria pe termen lung.

NS poate consta dintr-un strat, două, trei sau mai multe straturi, totuși, de regulă, pentru a rezolva probleme practice nu sunt necesare mai mult de trei straturi în NS.

Numărul de intrări NS determină dimensiunea hiperspațiu, în care semnalele de intrare pot fi reprezentate prin puncte sau hiperregiuni de puncte apropiate. Numărul de neuroni din stratul de rețea determină numărul hiperplanuri V hiperspațiu. Calcularea sumelor ponderate și efectuarea unei transformări neliniare fac posibilă determinarea în ce parte a unui anumit hiperplan este situat punctul semnalului de intrare hiperspațiu.


Orez. 8.2.

Să luăm problema clasică a recunoașterii modelelor: a determina dacă un punct aparține uneia dintre cele două clase. Această problemă este rezolvată în mod natural folosind un singur neuron. Vă va permite să vă împărțiți hiperspațiuîn două hiperdomenii disjunse și neimbricate. Semnale de intrareîn problemele rezolvate cu ajutorul rețelelor neuronale se formează în hiperspațiu regiuni foarte imbricate sau suprapuse care nu pot fi separate folosind un singur neuron. Acest lucru se poate face numai prin desenarea unei hipersuprafețe neliniare între regiuni. Poate fi descris folosind un polinom de ordinul al n-lea. Cu toate acestea, funcția de putere este calculată prea lent și, prin urmare, este foarte incomod pentru calcul. Opțiune alternativă este aproximarea hipersuprafeței prin liniară hiperplanuri. Este clar că acuratețea aproximării depinde de numărul de utilizate hiperplanuri, care, la rândul său, depinde de numărul de neuroni din rețea. Prin urmare, apare necesitatea implementării hardware a cât mai multor neuroni în rețea. Numărul de neuroni dintr-un strat al rețelei determină rezoluția acesteia. O rețea neuronală cu un singur strat nu poate separa imaginile dependente liniar. Prin urmare, este important să putem implementa rețele neuronale multistrat în hardware.


Orez. 8.3.

Rețelele neuronale artificiale au proprietăți uimitoare. Nu necesită o dezvoltare detaliată softwareși deschid posibilități de rezolvare a problemelor pentru care nu există modele teoretice sau reguli euristice care să determine algoritmul de rezolvare. Astfel de rețele au capacitatea de a se adapta la schimbările condițiilor de funcționare, inclusiv la apariția unor factori neprevăzuți anterior. Prin natura lor, NN-urile sunt sisteme cu un nivel foarte ridicat de paralelism.

Neurocalculatoarele folosesc principiile procesării informației efectuate în rețele neuronale reale. Aceste instrumente de calcul fundamental noi, cu o arhitectură neconvențională, permit procesarea de înaltă performanță a matricelor de informații la scară largă. Spre deosebire de sistemele de calcul tradiționale, calculatoare din rețea neuronală, similar rețelelor neuronale, fac posibilă prelucrarea fluxurilor de informații de semnale discrete și continue cu o viteză mai mare, conțin elemente simple de calcul și cu un grad ridicat de fiabilitate permit rezolvarea problemelor informaționale de prelucrare a datelor, oferind în același timp un mod de auto-reconstrucție a mediul de calcul în funcţie de soluţiile obţinute.

În general, termenul „calculator neural” înseamnă în prezent o clasă destul de largă de computere. Acest lucru se întâmplă din simplul motiv că în mod formal orice implementare hardware poate fi considerată un neurocomputer. algoritmul rețelei neuronale, de la un simplu model de neuron biologic la un sistem de recunoaștere a caracterelor sau a țintei în mișcare. Neurocalculatoarele nu sunt computere în sensul convențional al cuvântului. În prezent, tehnologia nu a atins încă nivelul de dezvoltare la care s-ar putea vorbi despre un neurocomputer de uz general (care ar fi și inteligență artificială). Sistemele cu valori fixe ale coeficienților de ponderare sunt, în general, cele mai specializate din familia rețelelor neuronale. Rețelele de învățare sunt mai adaptate la varietatea problemelor rezolvate. Rețelele de învățare sunt mai flexibile și capabile să rezolve o varietate de probleme. Astfel, construcția unui neurocomputer este de fiecare dată cel mai larg domeniu pentru activități de cercetare în domeniul implementării hardware a aproape tuturor elementelor rețelei neuronale.

La începutul secolului XXI, spre deosebire de anii 40-50 ai secolului trecut, există o nevoie practică obiectivă de a învăța cum să creăm neurocalculatoare, adică. este necesar să se implementeze în hardware destul de mulți neuroni care funcționează în paralel, cu milioane de conexiuni-sinapse modificate adaptativ fixe sau paralel, cu mai multe straturi de neuroni complet conectate.

În același timp, capacitățile fizice ale tehnologiei electronice integrate nu sunt nelimitate. Dimensiunile geometrice ale tranzistoarelor nu mai pot fi reduse fizic: cu dimensiuni realizabile tehnologic de ordinul a 1 micron sau mai puțin, apar fenomene fizice care sunt invizibile cu dimensiuni mari de elemente active - efectele de dimensiune cuantică încep să aibă un efect puternic. Tranzistorii nu mai funcționează ca tranzistori.

Pentru implementarea hardware a NN, este necesar un nou mediu de stocare. Un astfel de purtător de informații nou ar putea fi ușor, ceea ce ar permite să crească brusc, cu câteva ordine de mărime, performanţă calculele.

Singura tehnologie pentru implementarea hardware a NS care poate înlocui optica și optoelectronica în viitor este nanotehnologia, care poate oferi nu numai gradul maxim posibil de integrare fizică a elementelor cuantice submoleculare cu viteza maximă fizică posibilă, ci și arhitectura tridimensională. atât de necesar pentru implementarea hardware a NS.

Multă vreme s-a crezut că neurocalculatoarele sunt eficiente în rezolvarea așa-numitelor sarcini neformalizabile și slab formalizabile legat de necesitatea includerii procesului de învățare folosind material experimental real în algoritmul de rezolvare a problemei. În primul rând, astfel de probleme au inclus sarcina de a aproxima o anumită formă de funcții care iau un set discret de valori, adică problema recunoașterii modelelor.

În prezent, la această clasă de probleme i se adaugă o clasă de probleme, care uneori nu necesită pregătire pe material experimental, dar sunt bine reprezentate într-o bază logică a rețelei neuronale. Acestea includ sarcini cu paralelism natural pronunțat în procesarea semnalului, procesarea imaginilor etc. Punctul de vedere că în viitor neurocalculatoarele vor fi mai eficiente decât alte arhitecturi poate fi confirmat, în special, de extinderea bruscă în ultimii ani a clasei de probleme matematice generale rezolvate pe baza logica a retelei neuronale. Acestea, pe lângă cele enumerate mai sus, includ probleme de rezolvare a ecuațiilor algebrice liniare și neliniare și a inegalităților dimensionale mari; sisteme de ecuații diferențiale neliniare; ecuații cu diferențe parțiale; probleme de optimizare și alte probleme.

13.10.2017, vineri, ora 15:28, ora Moscovei, Text: Vladimir Bakhur

Noul smartphone emblematic Huawei Mate 10 Pro fără ramă va dispune de cel mai recent procesor neuronal Kirin 970, optică duală de la Leica, Android 8.0 Oreo și un stilou inteligent. Și nu numai.

Huawei a învățat să surprindă plăcut

Blogger și jurnalist Evan Blass(Evan Blass), cunoscut pentru gradul ridicat de confirmare a informațiilor privilegiate pe care le publică gadgeturi mobile, postat pe pagina sa de socializare Rețele Twitter o serie de randări noi Smartphone Huawei Mate 10 Pro.

O serie de caracteristici ale smartphone-ului Huawei Mate 10 Pro, dar din ultimele publicații ale lui Evan Blas a devenit cunoscut faptul că noua navă amiral va susține un stylus cu senzori de poziție spațială, permițându-vă să scrieți pe hârtie cu transmisie fără fir note într-un smartphone.

Anunțul familiei de smartphone-uri Mate 10 Pro este planificat de Huawei luni, 16 octombrie, la ora 14:00, ora Moscovei. Acest lucru este confirmat de transmisia live planificată a prezentării HUAWEI Mate 10 Keynote Live pe YouTube din München, cu participarea CEO-ului Huawei, Richard Yu.

Stiloul inteligent Bluetooth care se așteaptă să vină cu Mate 10 Pro arată similar cu stiloul inclus în setul de scriere inteligentă Moleskine.

Detalii tehnice

Smartphone-ul Huawei Mate 10 Pro, care a primit nume de lucru Blanc ("regulat" Mate 10 are titlu de lucru Alpi), va fi unul dintre primele gadget-uri de pe piață echipate cu telefon mobil pentru prima dată procesor Huawei Hisilicon Kirin 970 cu coprocesor integrat de inteligență artificială (AI).

Aspectul smartphone-ului Huawei Mate 10 Pro

Cipul mobil Kirin 970 este un procesor cu 8 nuclee pe 64 de biți bazat pe patru nuclee ARM Cortex-A73 cu frecvența ceasului 2,4 GHz și 4 nuclee ARM Cortex-A53 cu viteze de ceas de până la 1,8 GHz. Cipul este echipat cu grafică Mali-G72 MP12 integrată cu 12 nuclee de generație următoare și o serie de coprocesoare auxiliare pentru a accelera sarcini specifice de calcul.

Componentele cheie ale procesorului mobil Kirin 970

Cipul conține 5,5 miliarde de tranzistori plasați pe un cip de 1 metru pătrat. cm și este produs la unitățile de producție TSMC în conformitate cu cele mai precise standarde de 10 nm de până acum proces tehnologic FinFET.

Nou procesor emblematic Kirin 970 este un " platforma mobila pentru rezolvarea problemelor AI.” Include o așa-numită unitate de procesare neuronală (NPU, Neural Processing Unit, NPU) pentru procesarea de mare viteză a sarcinilor de inteligență artificială cu un consum minim de energie, oferind, potrivit Huawei, performanță de 25 de ori mai bună și eficiență de 50 de ori mai mare decât predecesorii.

Kirin 970 se integrează și el modem celular 4.5G cu Suport LTE Agregările de categoria 18, 5CC, 4x4MIMO și 256QAM, despre care compania susține că oferă viteze de descărcare de până la 1,2 Gbps.

Cipul acceptă funcționarea simultană a două carduri SIM în modul LTE, totuși, smartphone-ul Huawei Mate 10 Pro este de așteptat să fie prezentat ca versiune hibridă SIM dual(Nano-SIM, dual stand-by, unul dintre sloturi este combinat cu un cititor de carduri microSD pentru carduri cu o capacitate de până la 256 GB), iar într-o versiune cu un singur slot pentru o cartelă Nano-SIM.

Kirin 970 oferă decodare hardware 4K video până la 60fps și codificare video 4K până la 30fps cu codecuri H.264 și H.265 și suport spațiu de culoare HDR10. În plus, Kirin 970 acceptă până la 4 canale memorie cu acces aleator LPDDR4X 1866 MHz, echipat cu DAC încorporat pe 32 biți/384 kHz, Senzor Huawei i7 de nouă generație și suport pentru camere duale.

Se așteaptă ca smartphone-ul Huawei Mate 10 Pro să aibă un ecran mare de 5,99 inchi. Matrice AMOLED cu o rezoluție de 1440x2880 pixeli, un raport de aspect de 18:9 și o claritate de 546 pixeli pe inch. Grosimea smartphone-ului este de doar 7,5 mm, în timp ce are protecție conform standardului IP68, ceea ce înseamnă 30 de minute de scufundare a dispozitivului în apă la o adâncime de 1,5 metri.

dublu principal Camera Mate 10 Pro

Mate 10 Pro va fi disponibil într-o versiune cu 6 GB de RAM și 64 GB sau 128 GB de stocare internă. Dispozitivul este echipat cu o cameră principală dublă formată dintr-un senzor color de 20 MP și un senzor monocrom de 12 MP, cu sisteme optice f/1.6 de la Leica, stabilizare optică imagini, faza si autofocus laser, Suport HDRși înregistrare video în formate 2160p@30fps și 1080p@30/60fps. Camera frontala are o rezoluție de 8 MP.

Smartphone-ul Mate 10 Pro va fi imediat prezentat sub control ultima versiune OS Android 8.0 (Oreo) cu proprietar interfata grafica Huawei EMUI 6.0. Dispozitivul suportă Rețele Wi-Fi Standarde 802.11 a/b/g/n/ac, Bluetooth 5.0 cu profiluri A2DP, EDR și LE, Navigare A-GPS, GLONASS, BDS și GALILEO, Tehnologia NFC. Există, de asemenea, un port IR și un conector Standard USB 2.0 de tip C.

Încorporat nedemontabil baterie cu litiu polimer Smartphone-ul are o capacitate de 4000 mAh.

Stilo inteligent pentru Huawei Mate 10 Pro

În ciuda capacității de a digitiza instantaneu notele făcute pe hârtie simplă, stiloul inteligent, care, conform datelor preliminare, va fi inclus cu Mate 10 Pro, nu va funcționa ca stilou sau stilou pentru introducere. touch screen Huawei Mate 10 Pro, sau va fi echipat cu tehnologie de intrare suplimentară în aceste scopuri.

Început de vânzări și preț

Fără informații mai mult sau mai puțin clare despre începutul vânzărilor și preț smartphone-ul de vârf Nu există încă Huawei Mate 10, totul va fi cunoscut luni, 16 septembrie.

Anunțul prezentării smartphone-urilor din seria Huawei Mate 10

În mod preliminar, analiștii de rețea estimează costul Huawei Mate 10 în China la 835 USD, în timp ce Huawei Mate 10 „obișnuit” va costa aproximativ 650 USD.