QUANTO AI patatine e LLM.
Vision 2024, Intel ha
presentato molti nuovi prodotti, tra cui gli acceleratori AI Gaudi 3. Secondo i
creatori, consentono di addestrare le reti neurali 1,7 volte più velocemente,
aumentare le prestazioni di inferenza del 50% e lavorare il 40% in modo più
efficiente rispetto alla concorrenza H100 da NVIDIA, che sono i più popolari
sul mercato. Così Intel svela l’ultimo chip AI mentre la concorrenza di Nvidia
si surriscalda fonte: https://www.tomshardware.com/pc-components/cpus/intel-details-guadi-3-at-vision-2024-new-ai-accelerator-sampling-to-partners-now-volume-production-in-q3
il suo ultimo chip di intelligenza artificiale chiamato Gaudi 3, si affaccia mentre i produttori di chip si affrettano a produrre semiconduttori in grado di addestrare e implementare grandi modelli di intelligenza artificiale, come quello alla base del ChatGPT di OpenAI.
Due volte più efficiente dal punto di vista energetico e può
eseguire modelli di intelligenza artificiale una volta e mezza più velocemente
di quelli di Nvidia. E' disponibile anche in diverse configurazioni,
come un pacchetto di otto chip Gaudi 3 su una scheda madre o una scheda che può
essere inserita nei sistemi esistenti. Intel ha testato il chip su modelli come
Meta. Llama open source e Falcon sostenuto da Abu Dhabi.
Intel introducendo le
prestazioni di Gaudi 3 rispetto al semiconduttore AI della generazione
precedente "H100" di Nvidia ha raggiunto la velocità di apprendimento
del modello linguistico di grandi dimensioni ( LLM ) e le prestazioni di
elaborazione dell'inferenza sono in media migliori del 50% e l'efficienza
energetica dell'inferenza è in media migliore del 40% circa. LMM è il Large Language Model (LLM) è un modello
di intelligenza artificiale (AI) addestrato a comprendere e generare grandi
quantità di linguaggio umano. Viene utilizzato per attività di elaborazione del
linguaggio naturale basate su algoritmi di deep Learning e modelli statistici.
A differenza dei modelli linguistici esistenti che apprendono modelli,
strutture e relazioni all’interno di una determinata gamma linguistica,
apprende dati linguistici su larga scala per comprendere la struttura, la
grammatica e il significato delle frasi e consente l’interazione sotto forma di
una conversazione naturale. Il successo di Nvidia è attribuito al fatto che
grazie a una potente suite di software proprietario chiamata CUDA che consente
agli scienziati dell’intelligenza artificiale di accedere a tutte le
funzionalità hardware di una GPU.
Intel sta collaborando con
altri giganti di chip e software, incluso Google, Qualcomm e ARM Holdings una società di alta tecnologia con sede a
Cambridge, Regno Unito, per creare
software aperto che non sia proprietario e che possa consentire alle società di
software di cambiare facilmente fornitore di chip.
Attualmente il modello
linguistico su larga scala. È considerata una tecnologia di base chiave per
l’intelligenza artificiale generativa, che apprende modelli di contenuto e crea
nuovi contenuti utilizzando i risultati dell’inferenza. Esempi rappresentativi
includono "ChatGPT" sviluppato da OpenAI, "PaLM" applicato
da Google a Bard, uno strumento di intelligenza artificiale basato su chat, e
"LLaMa" di Meta.
Ieri Google ha rivelato i
dettagli di una nuova versione dei suoi chip di intelligenza artificiale (AI)
per data center e ha annunciato un processore centrale basato su Arm. Le unità
di elaborazione tensore (TPU) di Google sono una delle poche alternative
praticabili ai chip AI avanzati realizzati da Nvidia, sebbene gli sviluppatori
possano accedervi solo tramite la piattaforma cloud di Google e non acquistarli
direttamente. Google prevede di offrire l'unità di elaborazione centrale (CPU)
basata su Arm chiamata Axion tramite Google Cloud. La società ha affermato di
avere prestazioni superiori rispetto ai chip x86 e ai chip Arm generici nel
cloud. Il chip Axion offre prestazioni migliori del 30% rispetto ai chip Arm
generici e prestazioni migliori del 50% rispetto ai chip x86 dell'attuale
generazione prodotti da Intel e Advanced Micro Devices, ha affermato Google. La
società prevede di utilizzare "presto" Axion per potenziare servizi
come gli annunci YouTube in Google Cloud. Il TPU v5p è generalmente disponibile
tramite il cloud di Google martedì. Anche operatori cloud rivali come
Amazon.com e Microsoft hanno sviluppato CPU Arm come un modo per differenziare
i servizi informatici che offrono. Google ha costruito altri chip
personalizzati per YouTube, AI e i suoi smartphone ma non ha costruito una CPU.
Samsung Electronics sta
assumendo contemporaneamente sviluppatori negli Stati Uniti e in India per
rafforzare le proprie capacità tecnologiche relative alle unità di elaborazione
grafica (GPU).
Nessun commento:
Posta un commento