Il Significativo Passo Avanti:
La chiave di questo avanzamento risiede nella significativa espansione della “context Window”, un elemento cruciale per l’elaborazione delle informazioni.
La “context Window” di un modello AI è composta da token, unità fondamentali per l’elaborazione delle informazioni. Gemini 1.5 Pro vanta una finestra “context Window” di 128.000 token, quattro volte superiore rispetto a Gemini 1.0, il che si traduce in una capacità di elaborare oltre 700.000 parole, 30.000 linee di codice, 11 ore di audio o 1 ora di video.
Gemini 1.5 Pro in Azione:
Le applicazioni pratiche di Gemini 1.5 Pro sono sorprendenti. Il modello può analizzare, classificare e riassumere grandi quantità di contenuti, come dimostrato nell’analisi dei trascritti di 402 pagine della missione Apollo 11 sulla luna. Inoltre, eccelle nell’esecuzione di compiti sofisticati, come l’analisi di un film silenzioso di Buster Keaton o la risoluzione di problemi su blocchi di codice estesi.
Architettura MoE: Efficienza e Prestazioni Superiori:
La novità principale di Gemini 1.5 è l’architettura Mixture-of-Experts (MoE), una divisione del modello in reti neurali più piccole chiamate “expert”. Questa soluzione non solo migliora l’efficienza del modello durante l’addestramento, ma contribuisce in modo significativo alle sue prestazioni.