News da OpenAI, Apple ed il WWDC 2024, Luma Dream Machine e la caccia al nuovo Sora, Progetti italiani open-source

Davide Gallitelli
Generative AI — Italia
5 min readJun 17, 2024

--

💰 Notizie dal mondo degli affari 💰

Siri ❤️ ChatGPT: Dettagli sull’accordo fra Apple e OpenAI

Durante la WWDC, Apple ha annunciato una partnership con OpenAI per integrare ChatGPT nei suoi dispositivi, senza scambio di denaro. Apple ritiene che l’esposizione offerta a OpenAI abbia un valore pari o superiore ai pagamenti monetari. L’accordo non è esclusivo, poiché Apple è in trattative anche con Anthropic (Claude 3) e Google (Gemini) per offrire chatbot alternativi. Apple utilizzerà il modello GPT-4o di OpenAI per vari compiti AI su iOS 18, iPadOS 18 e macOS Sequoia, e prevede di guadagnare attraverso accordi di condivisione delle entrate. In particolare, ChatGPT sarà integrato a Siri: durante la demo alla WWDC, è apparso un disclaimer in fondo alla risposta: “Controlla le informazioni importanti per errori.” Quando gli è stato chiesto dell’integrazione, Cook ha detto che Apple ha scelto OpenAI perché è un “pioniere” nella privacy e attualmente ha “il miglior modello”. Inoltre, Apple potrebbe collaborare con altri in futuro. L’azienda punta a supportare Apple Intelligence in altre lingue il prossimo anno e sta considerando accordi con Baidu e Alibaba per la Cina.

OpenAI: nuovo board member e una possibile IPO

OpenAI ha recentemente annunciato l’ingresso nel suo consiglio di amministrazione di Paul Nakasone, ex capo della NSA, in un’ottica di rafforzamento della sicurezza e della governance aziendale. Questo movimento strategico si inserisce in un periodo di significative trasformazioni per OpenAI, poiché il CEO Sam Altman ha rivelato che l’azienda potrebbe evolversi in una società for-profit, aprendo la strada a una possibile IPO. Questa mossa rappresenta un cambiamento significativo rispetto alla sua attuale struttura di organizzazione non-profit e potrebbe segnare un nuovo capitolo nella crescita e nell’espansione di OpenAI.

Progetti Open-Source italiani 🇮🇹️

Due progetti di intelligenza artificiale, ScrapeGraphAI e PandasAI, sono stati fondati da italiani e stanno guadagnando riconoscimento globale diventando popolari su GitHub. PandasAI, supportato da Y Combinator (YC W24) e fondato da Gabriele Venturi, si posiziona al 219° posto. Questo potente strumento migliora l’analisi dei dati con pandas, integrando capacità AI nei flussi di lavoro dei dati. Subito dietro, al 220° posto, c’è ScrapeGraphAI, fondato da Lorenzo Padoan, Marco Perini e Marco Vinciguerra. Questo progetto promette di rivoluzionare lo scraping, la raccolta e l’analisi dei dati web. Dategli un’occhiata!

💻️ Notizie dal mondo della tecnologia 💻️

L’unione fa la forza: Mixture of Agents

La metodologia Mixture-of-Agents (MoA) sfrutta la natura collaborativa degli LLM, mostrando che si possono generare risposte di alta qualità utilizzando in maniera iterativa gli output di altri modelli. Gli LLM possono svolgere ruolo di proposers, che generano risposte di riferimento, e aggregators, che sintetizzano queste risposte in un unico output di alta qualità. MoA prevede più livelli con diversi LLM che elaborano input e generano continuazioni, senza necessità di fine-tuning e con ridotto sovraccarico computazionale. Ispirata dall’approccio Mixture-of-Experts (MoE), MoA offre flessibilità e scalabilità utilizzando LLM pre-addestrati e puro prompt engineering.

Dream Machine sfida Sora (e forse Kling)

Luma Labs ha recentemente lanciato il modello Dream Machine, un avanzato sistema AI per la generazione di video di alta qualità partendo da semplici descrizioni testuali e immagini. Costruito su un’architettura transformer multimodale e addestrato direttamente su video, Dream Machine è in grado di creare scene realistiche, coerenti e ricche di azione in modo rapido, producendo fino a 120 frame in 120 secondi. Questa tecnologia rappresenta un importante passo avanti rispetto ai modelli di animazione basati su immagini, permettendo una maggiore accuratezza fisica e fluidità del movimento nei video generati. Rispetto ai suoi concorrenti, Dream Machine si pone come un forte rivale di OpenAI Sora e del modello cinese Kling.

Dataset Sintetico con il Trick del Messaggio Vuoto

Sapevi che puoi generare dataset sintetici di alta qualità a casa, paragonabili a quelli creati da GPT-4? La self-synthesis è una nuova metodologia che utilizza un “messaggio vuoto” dell’utente per generare un dataset di istruzioni su larga scala usando Llama 3 70B. L’implementazione prevede la selezione di un LLM come Llama 3 70B, la creazione di template con un messaggio vuoto da parte dell’utente, la generazione di turni sintetici dell’utente e dell’assistente, e il filtraggio dei campioni per garantire alta qualità e diversità. Sono state generate 4 milioni di coppie di istruzioni, filtrate a 300k coppie di alta qualità, superando o eguagliando altri modelli LLM aperti addestrati su dati GPT-4. Llama 3 8B è stato utilizzato per categorizzare e classificare i campioni, e transformer per la similarità, permettendo la generazione di dati multi-turn. I prompt per la generazione e il filtraggio sono riportati nel paper, e creare 1.000 campioni di alta qualità filtrati costa circa $1.1. Il dataset è rilasciato sotto CC BY-NC.

NVIDIA lancia Nemotron 340B

NVIDIA ha recentemente introdotto il Nemotron-4 15B, un modello linguistico avanzato con 15 miliardi di parametri, progettato per eccellere in una vasta gamma di compiti, tra cui il ragionamento comune, la comprensione del linguaggio naturale, la matematica e la programmazione. Addestrato su 8 trilioni di token, il Nemotron-4 15B utilizza leggi di scalabilità che bilanciano l’espansione dei dati di addestramento con la crescita del modello, garantendo elevate prestazioni grazie all’utilizzo di 384 nodi DGX H100 durante l’addestramento. Nemotron-4 15B ha dimostrato di superare modelli concorrenti come LLaMA-2 70B e Baichuan-2 13B in vari benchmark, stabilendo Nemotron-4 15B come un modello di riferimento nel panorama dei modelli linguistici avanzati, con potenzialità applicative notevoli in diversi settori.

👥 Posts della community 👥

Building AI Products

Il fatto che l’IA sbagli a volte non significa che sia inutile. I modelli di IA sono estremamente bravi a indicare quale potrebbe essere una buona risposta a una domanda. L’IA generativa è una tecnologia a scopo generale, ma gli sviluppatori la stanno limitando a strumenti ed esperienze a scopo singolo. Uno dei motivi per cui le persone sono così entusiaste dei grandi modelli di linguaggio è che potrebbero attraversare tutti i livelli di astrazione software e hardware fino alla cima. In che modo possiamo quindi utilizzare l’IA all’interno dei nostri prodotti? Come possiamo costruire prodotti che cambiano il mondo attorno a una tecnologia che commette errori? Cosa significa “sbagliato” e come può essere utile? Un interessante report da Benedict Evans.

Apple Intelligence: Modelli on-device e remoti

Un report in italiano proprio su Generative AI Italia sui foundation models annunciati da Apple durante WWDC 2024. Questi modelli andranno a formare la base dell’ecosistema Apple Intelligence, ovvero il primo (cauto) passo di Apple verso l’AI Generativa per la massa. Interessante vedere come le tecniche usate da Apple siano un mix di open-source (LoRA per fine-tuning) e proprietarie (nuovo meccanismo di quantizzazione mista a 2 e 4 bits).

L’ecosistema degli Agenti AI

Con il rapido avanzamento dell’intelligenza artificiale, gli agenti AI stanno diventando sempre più sofisticati e integrati nei processi aziendali. L’articolo evidenzia come la scalabilità, la sicurezza e l’efficienza delle infrastrutture siano cruciali per supportare queste nuove tecnologie. Inoltre, viene sottolineata l’importanza di piattaforme robuste che possano gestire agenti AI in modo efficiente, offrendo al contempo flessibilità e affidabilità per adattarsi alle esigenze mutevoli del mercato.

Per qualsiasi commento, contattateci pure! Alla prossima newsletter, Il Team di Generative AI — Italia 🇮🇹

--

--