mercoledì 10 aprile 2024

QUANTO AI patatine e LLM.

 QUANTO AI patatine e LLM.


Vision 2024, Intel ha presentato molti nuovi prodotti, tra cui gli acceleratori AI Gaudi 3. Secondo i creatori, consentono di addestrare le reti neurali 1,7 volte più velocemente, aumentare le prestazioni di inferenza del 50% e lavorare il 40% in modo più efficiente rispetto alla concorrenza H100 da NVIDIA, che sono i più popolari sul mercato. Così Intel svela l’ultimo chip AI mentre la concorrenza di Nvidia si surriscalda fonte: https://www.tomshardware.com/pc-components/cpus/intel-details-guadi-3-at-vision-2024-new-ai-accelerator-sampling-to-partners-now-volume-production-in-q3

il suo ultimo chip di intelligenza artificiale chiamato Gaudi 3, si affaccia mentre i produttori di chip si affrettano a produrre semiconduttori in grado di addestrare e implementare grandi modelli di intelligenza artificiale, come quello alla base del ChatGPT di OpenAI. 

Due volte più efficiente dal punto di vista energetico e può eseguire modelli di intelligenza artificiale una volta e mezza più velocemente di quelli di Nvidia.  E' disponibile anche in diverse configurazioni, come un pacchetto di otto chip Gaudi 3 su una scheda madre o una scheda che può essere inserita nei sistemi esistenti. Intel ha testato il chip su modelli come Meta. Llama open source e Falcon sostenuto da Abu Dhabi.

Intel introducendo le prestazioni di Gaudi 3 rispetto al semiconduttore AI della generazione precedente "H100" di Nvidia ha raggiunto la velocità di apprendimento del modello linguistico di grandi dimensioni ( LLM ) e le prestazioni di elaborazione dell'inferenza sono in media migliori del 50% e l'efficienza energetica dell'inferenza è in media migliore del 40% circa. LMM  è il Large Language Model (LLM) è un modello di intelligenza artificiale (AI) addestrato a comprendere e generare grandi quantità di linguaggio umano. Viene utilizzato per attività di elaborazione del linguaggio naturale basate su algoritmi di deep Learning e modelli statistici. A differenza dei modelli linguistici esistenti che apprendono modelli, strutture e relazioni all’interno di una determinata gamma linguistica, apprende dati linguistici su larga scala per comprendere la struttura, la grammatica e il significato delle frasi e consente l’interazione sotto forma di una conversazione naturale. Il successo di Nvidia è attribuito al fatto che grazie a una potente suite di software proprietario chiamata CUDA che consente agli scienziati dell’intelligenza artificiale di accedere a tutte le funzionalità hardware di una GPU. 

Intel sta collaborando con altri giganti di chip e software, incluso Google, Qualcomm e ARM Holdings  una società di alta tecnologia con sede a Cambridge, Regno Unito,  per creare software aperto che non sia proprietario e che possa consentire alle società di software di cambiare facilmente fornitore di chip.

Attualmente il modello linguistico su larga scala. È considerata una tecnologia di base chiave per l’intelligenza artificiale generativa, che apprende modelli di contenuto e crea nuovi contenuti utilizzando i risultati dell’inferenza. Esempi rappresentativi includono "ChatGPT" sviluppato da OpenAI, "PaLM" applicato da Google a Bard, uno strumento di intelligenza artificiale basato su chat, e "LLaMa" di Meta. Interessante esposizione LMM vedi  https://blog.csdn.net/weixin_44292902/article/details/135104794.

Ieri Google ha rivelato i dettagli di una nuova versione dei suoi chip di intelligenza artificiale (AI) per data center e ha annunciato un processore centrale basato su Arm. Le unità di elaborazione tensore (TPU) di Google sono una delle poche alternative praticabili ai chip AI avanzati realizzati da Nvidia, sebbene gli sviluppatori possano accedervi solo tramite la piattaforma cloud di Google e non acquistarli direttamente. Google prevede di offrire l'unità di elaborazione centrale (CPU) basata su Arm chiamata Axion tramite Google Cloud. La società ha affermato di avere prestazioni superiori rispetto ai chip x86 e ai chip Arm generici nel cloud. Il chip Axion offre prestazioni migliori del 30% rispetto ai chip Arm generici e prestazioni migliori del 50% rispetto ai chip x86 dell'attuale generazione prodotti da Intel e Advanced Micro Devices, ha affermato Google. La società prevede di utilizzare "presto" Axion per potenziare servizi come gli annunci YouTube in Google Cloud. Il TPU v5p è generalmente disponibile tramite il cloud di Google martedì. Anche operatori cloud rivali come Amazon.com e Microsoft hanno sviluppato CPU Arm come un modo per differenziare i servizi informatici che offrono. Google ha costruito altri chip personalizzati per YouTube, AI e i suoi smartphone ma non ha costruito una CPU.

Samsung Electronics sta assumendo contemporaneamente sviluppatori negli Stati Uniti e in India per rafforzare le proprie capacità tecnologiche relative alle unità di elaborazione grafica (GPU).

 -mm-

Nessun commento:

Posta un commento