Google a lansat un nou cip de inteligență artificială numit Ironwood, un tip special de procesor creat pentru a rula mai eficient sarcini legate de inteligența artificială (AI), cum ar fi recunoașterea imaginilor, traducerea automată sau răspunsul la întrebări. Cipul a fost prezentat în cadrul conferinței Cloud Next, relatează TechCrunch.
Este vorba despre cel mai nou membru din familia TPU (Tensor Processing Unit) și reprezintă a șaptea generație de astfel de cipuri create de companie. Spre deosebire de versiunile anterioare, Ironwood este primul cip optimizat special pentru inferență, adică pentru rularea modelelor AI deja antrenate, nu pentru antrenarea lor, arată Techrider.

16 aprilie - Maratonul de Educație Financiară
Ironwood va fi disponibil în Google Cloud până la finalul anului și va veni în două variante: un cluster cu 256 de cipuri și un cluster mult mai mare, cu 9.216 cipuri. Conform testelor interne Google, fiecare cip Ironwood poate atinge o putere de calcul de 4.614 TFLOPs și este echipat cu 192 GB de memorie RAM, având o lățime de bandă de până la 7,4 terabiți pe secundă.
Noul cip include și un nucleu special numit SparseCore, proiectat pentru a procesa rapid datele tipice din aplicațiile de recomandare, cum ar fi cele care sugerează produse sau conținut personalizat. Arhitectura Ironwood este concepută pentru a reduce mișcările inutile de date și latențele interne, ceea ce duce la un consum mai mic de energie și o eficiență mai mare.
Google intenționează să integreze Ironwood în infrastructura sa de cloud AI Hypercomputer, care va oferi astfel dezvoltatorilor o platformă puternică și scalabilă pentru aplicații AI în timp real. Lansarea acestui cip vine într-un moment în care concurența în domeniul procesoarelor AI este intensă. Nvidia domină piața cu cipurile sale H100, în timp ce Amazon și Microsoft propun propriile soluții prin Trainium, Inferentia sau Cobalt 100.
Amin Vahdat, vicepreședinte Google Cloud, a declarat că Ironwood este „cel mai capabil și eficient energetic TPU de până acum” și că marchează un moment important pentru AI-ul dedicat inferenței, datorită puterii de calcul sporite, memoriei extinse și noilor soluții de rețea integrate.