Notizie dal Mondo della GenAI — Settimana #24 del 2024

Potenziale accordo fra Apple ed OpenAI, Google flop con le AI Reviews, nuovi modelli e dataset open-source

Davide Gallitelli
Generative AI — Italia
4 min readJun 7, 2024

--

💰 Notizie dal mondo degli affari 💰

Apple ed OpenAI: accordo siglato?

Apple è vicina a finalizzare un accordo con OpenAI per integrare le funzionalità di ChatGPT nel prossimo sistema operativo iOS 18. Questo permetterebbe ad Apple di offrire un chatbot avanzato come parte delle sue nuove funzionalità AI. Nonostante Apple stia ancora negoziando con Google per utilizzare Gemini, le trattative con OpenAI sembrano essere in una fase più avanzata. Non è ancora chiaro quanto delle nuove funzionalità AI di iOS 18 sarà eseguita direttamente sui dispositivi, garantendo vantaggi in termini di privacy e velocità, e quali capacità avanzate potrebbero richiedere il supporto dei data center di Apple. L’annuncio ufficiale di questa collaborazione potrebbe avvenire durante la Worldwide Developers Conference (WWDC) il 10 giugno 2024.

Google riduce il numero di risultati tramite Generative AI

Dopo un lancio iniziale turbolento, Google ha deciso di ridimensionare le sue risposte generate dall’IA, che ora appaiono solo in circa l’11% delle query di ricerca, rispetto al 27% iniziale. Questo ridimensionamento è parte di un processo di perfezionamento della funzionalità. Nonostante le risposte AI siano ancora evidenti in ricerche su argomenti di salute, Google sta cercando di ottimizzare ulteriormente l’uso dello strumento per altre aree come lo shopping, le raccomandazioni sui ristoranti e i viaggi.

💻️ Notizie dal mondo della tecnologia 💻️

Qwen2: nuova famiglia di 5 modelli open source addestrati in 29 lingue

Qwen2, una nuova famiglia di cinque modelli open source che sono stati addestrati in 29 lingue diverse, è stata annunciata da Alibaba durante questa settimana. I modelli offrono prestazioni all’avanguardia in numerosi benchmark, eccellendo in compiti di coding e problemi matematici. Inoltre, i modelli più grandi possono gestire sequenze di testo fino a 128.000 token, migliorando significativamente la capacità di comprendere e generare testo in contesti complessi. Questa versatilità rende Qwen2 una soluzione potente e adattabile per una vasta gamma di applicazioni AI.

Un nuovo dataset curato per LLM Fine-tuning: HuggingFace introduce FineWeb 🍷

Hugging Face ha recentemente lanciato FineWeb, un dataset open-source su larga scala progettato per migliorare l’addestramento dei modelli di linguaggio di grandi dimensioni (LLM). Questo dataset innovativo, che comprende 15 trilioni di token raccolti da 96 snapshot di CommonCrawl, rappresenta un’importante risorsa per la comunità AI. FineWeb è stato attentamente filtrato e deduplicato, eliminando contenuti di bassa qualità e non pertinenti, garantendo così dati puliti e affidabili per la preformazione degli LLM.

👥 Posts della community 👥

Introduzione alla Domain Adaptation | Aris Tsakpinis | Towards Data Science

Nel suo recente blog “Introduction to Domain Adaptation,” Aris Tsakpinis esplora in dettaglio “l’adattamento di dominio”, una tecnica fondamentale per il fine-tuning di LLM. Tsakpinis discute le motivazioni dietro l’adattamento di dominio, le varie opzioni disponibili e i compromessi necessari, fornendo una guida completa per navigare questo complesso campo del machine learning. Questo articolo è particolarmente utile per i ricercatori e gli sviluppatori che cercano di migliorare le performance dei loro modelli adattandoli a specifici domini di applicazione.

Un ChatGPT Italiano van cercando

L’Italia sta facendo significativi passi avanti nello sviluppo di modelli di linguaggio adattati all’italiano, con progetti come Llamantino dell’Università di Bari e Cerbero dell’Università di Pisa. Llamantino, addestrato su LLama-2, mira ad adattare grandi modelli linguistici a lingue sottorappresentate, utilizzando dataset come UltraChat per migliorare la qualità delle risposte in italiano. Cerbero, basato su Mistral, è già in uso presso diverse aziende e rappresenta un modello open-source di alta qualità. Questi sforzi sono cruciali per mantenere la competitività dell’Italia nel campo dell’intelligenza artificiale e per promuovere l’uso della lingua italiana in ambito tecnologico. Da non dimenticare anche modelli come Minerva, dell’Università La Sapienza di Roma, e il progetto Maestrale.

Come scegliere il giusto LLM per un Agente IA

L’articolo di LlamaIndex analizza le prestazioni degli agenti alimentati da modelli linguistici di grandi dimensioni (LLM) meno sofisticati, evidenziando la necessità di maggiori vincoli e strumenti migliori. Gli agenti più semplici, come quelli basati su GPT-3, necessitano di interazioni più vincolate e strumenti sofisticati per migliorare le loro prestazioni. Al contrario, i modelli più avanzati come GPT-4 riescono a gestire compiti complessi con maggiore efficacia utilizzando loop di interazione come ReAct. L’articolo propone di spostare la complessità dal livello dell’agente a quello degli strumenti per ottenere risultati migliori.

Come scegliere un VectorDB – Tool open-source by Superlinked

Se stai valutando le opzioni di database a vettori per il tuo caso d’uso, il confronto dei database a vettori di Superlinked è un ottimo punto di partenza. Questo strumento gratuito e open-source, sviluppato da VectorHub, permette di confrontare varie soluzioni di database a vettori. Copre aspetti come le informazioni sulle licenze, i linguaggi di sviluppo, le statistiche e i download, i modelli di ricerca supportati (come BM25 e ricerca ibrida), le modalità supportate, le API come Langchain e LlamaIndex, e molto altro.

Per qualsiasi commento, contattateci pure! Alla prossima newsletter, Il Team di Generative AI — Italia 🇮🇹

--

--