RIASSUNTO NEWSLETTER TECNOLOGICHE
API e Protocolli
- Guida alla scelta dei protocolli API
- Un protocollo API definisce le regole per la comunicazione tra applicazioni software. Fattori chiave nella scelta del protocollo sono prestazioni, sicurezza, facilità di implementazione e scalabilità. REST è facile da impostare, GraphQL offre maggiore controllo sui dati, gRPC è veloce ma richiede più configurazione, WebSocket fornisce interazioni in tempo reale e Webhooks necessitano di meccanismi di sicurezza aggiuntivi.
- https://blog.bytebytego.com/p/api-protocols-101-a-guide-to-choose
AI e Machine Learning
- TransMLA: miglioramento di LLM GQA
- L'articolo discute di Multi-Head Latent Attention (MLA) come alternativa più efficiente in termini di memoria rispetto a Grouped Query Attention (GQA) nei modelli linguistici di grandi dimensioni (LLM). Si presenta TransMLA, un metodo per convertire in modo efficiente i modelli GQA in MLA, migliorandone l'accuratezza a basso costo.
- https://kaitchup.substack.com/p/transmla-improve-qwen25-and-llama
- GPT-4.5: nuovo modello di OpenAI
- OpenAI ha rilasciato GPT-4.5 agli utenti Plus, evidenziando miglioramenti nella creatività, nella scrittura, nell'empatia e nella precisione, con meno "allucinazioni".
- https://vincos.substack.com/p/nuovo-gpt-45-migliore-per-creativita
- Agenti autonomi e strategie aziendali nell'IA
- OpenAI potrebbe lanciare agenti autonomi a prezzi elevati, mentre Microsoft sta già vendendo agenti alle aziende, inclusi Sales Agent e Sales Chat. Google ha introdotto "AI Mode" nel suo motore di ricerca per domande complesse con Gemini 2.0.
- https://vincos.substack.com/p/nuovo-gpt-45-migliore-per-creativita
- Confronto tra metodi di quantizzazione per LLM
- Confronto tra GPTQ, AWQ, bitsandbytes, HQQ e AutoRound per quantizzare modelli linguistici di grandi dimensioni (LLM). 4-bit e 8-bit sono risultati efficaci per grandi modelli, offrendo vantaggi in termini di dimensione e velocità di inferenza. AutoRound può produrre modelli instabili per compiti generativi. Bitsandbytes si distingue come il metodo più user-friendly.
- https://kaitchup.substack.com/p/a-comparison-of-5-quantization-methods
- Gemma 3: Gli LLM open si avvicinano
- Gemma 3 di Google dimostra che modelli open più piccoli possono superare le alternative commerciali in efficienza ed efficacia. I modelli open stanno colmando il divario sfruttando dati sintetici raffinati, probabilmente da modelli commerciali, come nel caso di Gemma 3, con la multimodalità come percorso per migliorare le prestazioni.
- https://kaitchup.substack.com/p/the-weekly-kaitchup-83
- OLMo 2 32B
- AI2 ha rilasciato un modello OLMo 2 32B completamente aperto, con ricette di addestramento complete, pipeline e set di dati disponibili pubblicamente. Esegue prestazioni molto buone, superando GPT 3.5 e GPT 4o mini.
- https://kaitchup.substack.com/p/the-weekly-kaitchup-83
- Q-Filters: Compressione della cache KV
- Q-Filters è una tecnica di compressione della cache KV senza addestramento che opera con una latenza minima, utile per modelli di ragionamento e applicazioni di streaming. Approfitta di una direzione polarizzata nei meccanismi di auto-attenzione per comprimere le coppie KV durante la generazione senza dover riqualificare il modello.
- https://kaitchup.substack.com/p/the-weekly-kaitchup-83
- Search-R1: Addestrare gli LLM a ragionare e usare motori di ricerca
- Search-R1, un nuovo framework di apprendimento per rinforzo, insegna agli LLM a intrecciare il ragionamento passo passo con le richieste dei motori di ricerca. Il framework non richiede dati di dimostrazione supervisionati e utilizza token speciali per strutturare le interazioni: passaggi di ragionamento con tag
, query con i tag e informazioni recuperate con tag . - https://www.llmwatch.com/p/search-r1-gemini-embeddings-and-controlled
- Search-R1, un nuovo framework di apprendimento per rinforzo, insegna agli LLM a intrecciare il ragionamento passo passo con le richieste dei motori di ricerca. Il framework non richiede dati di dimostrazione supervisionati e utilizza token speciali per strutturare le interazioni: passaggi di ragionamento con tag
- L1: Controllo della lunghezza del ragionamento
- La tecnica Length Controlled Policy Optimization (LCPO) allena i modelli a soddisfare due obiettivi contemporaneamente: fornire risposte corrette e rispettare i limiti di lunghezza specificati dall'utente. L1 dimostra un controllo preciso sulla lunghezza del ragionamento, superando i metodi precedenti e mantenendo prestazioni elevate su vari domini.
- https://www.llmwatch.com/p/search-r1-gemini-embeddings-and-controlled
- Gemini Embedding: Embeddings generalizzabili
- Gemini Embedding crea un modello di embedding veramente universale che mantiene un'alta qualità tra lingue, domini e compiti senza sacrificare le prestazioni in nessuna area. Si avvale del potente LLM di Google come base e impiega un approccio di formazione in due fasi.
- https://www.llmwatch.com/p/search-r1-gemini-embeddings-and-controlled
- Google AI Mode: Novità nella ricerca
- Google ha rilasciato in anteprima AI Mode, una nuova funzionalità del motore di ricerca di Google che consente di effettuare query approfondite tramite un chatbot conversazionale.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
- Manus: Il primo agente completamente autonomo
- Manus afferma di essere il prima app cinese a offrire agenti completamente autonomi. Si basa sul modello Claude Sonnet.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
- Novità di Google
- Gemini Flash in Google AI Studio ha la capacità di modificare le immagini tramite comandi testuali; Deep Research, all'interno di Gemini, è ora gratuito e ottimizzato con il modello Gemini 2.0 Flash Thinking Experimental. Anche i Gems sono gratuiti. C'è una nuova opzione "Personalizzazione" che personalizza le risposte in base alla cronologia di Google
- Gemma 3, un modello linguistico open e veloce in grado di utilizzare una singola GPU;
- Gemini Robotics, due modelli IA per assistere i robot a comprendere l'ambiente, "ragionare" e svolgere attività quotidiane, senza addestramento specifico.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
Sviluppo Software
- Come progettare sistemi come Instagram
- Un approccio passo-passo per costruire le funzionalità principali come:
- Gli utenti eseguono un'azione sul dispositivo e la richiesta passa attraverso un gateway verso il server backend.
- I dati vengono archiviati nel database e le immagini nell'archiviazione degli oggetti.
- I compiti asincroni come l'invio di notifiche vengono inviati a una coda.
- https://blog.bytebytego.com/p/ep154-what-is-mcp
- Un approccio passo-passo per costruire le funzionalità principali come:
- Come caricare i siti web alla velocità della luce
- Otto suggerimenti utili per aumentare le prestazioni del front-end.
- Compressione
- Rendering/Windowing Selettivo
- Architettura modulare con suddivisione del codice
- Caricamento basato sulla priorità
- Precaricamento
- Rimozione del codice morto
- Prefetching
- Importazioni dinamiche
- https://blog.bytebytego.com/p/ep154-what-is-mcp
- Otto suggerimenti utili per aumentare le prestazioni del front-end.
Robotica
- Sfide e sviluppi nella robotica
- La robotica è in rapida evoluzione, guidata da fattori economici, sociali e dall'IA generativa. Ostacoli sono l'hardware e la simulazione dei sensi (il paradosso di Moravec).
- Amazon ha assunto i fondatori di Covariant, Meta AI sta facendo progressi nell'intelligenza artificiale "incarnata" con Sparsh; Physical Intelligence ha sviluppato π0; 1X Technologies ha lanciato NEO Gamma e una sfida per i modelli di simulazione del mondo.
- https://stefanogatti.substack.com/p/laculturadeldato-157
Data Science
- Data Visualization e Confronto
- È una delle tecniche più efficaci per focalizzare l'attenzione del pubblico su contrasti e disparità sorprendenti tra misure simili.
- https://stefanogatti.substack.com/p/laculturadeldato-157
Business Tech
- McDonald's e la trasformazione digitale
- McDonald's sta trasformando digitalmente i suoi 43.000 ristoranti con: elaborazione dati in tempo reale, manutenzione predittiva, visione artificiale per gli ordini e un "manager virtuale" potenziato dall'IA, promozioni personalizzate.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
- Vendita di Niantic Labs (Pokémon Go)
- Niantic Labs ha venduto la sua divisione videogiochi, compreso Pokémon Go, a Scopely (Arabia Saudita) per 3,5 miliardi di dollari.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
Cultura del Dato
- Investimenti in AI
- Analisi di Sequoia Capital sugli investimenti in AI (2022) e confronto con la situazione attuale; report "State of Italian VC 2024" di P101 con dati sul Venture Capital italiano (con prospettive poco rosee); studio e tempismo negli investimenti di Nvidia (1993) e OpenAI (2021).
- https://stefanogatti.substack.com/p/laculturadeldato-157
- Pratica e applicazione della conoscenza
- L'eccessiva enfasi sulla conoscenza teorica a discapito della pratica ("doing deficit"), soprattutto nell'era di ChatGPT: come superare la paura del fallimento.
- https://stefanogatti.substack.com/p/laculturadeldato-157
- Intelligenza vs. Coscienza in AI
- Differenza tra intelligenza e coscienza, basata sugli studi di Cristianini e Turing. La coscienza rimane un mistero, ma non deve impedire di affrontare l'intelligenza artificiale.
- https://stefanogatti.substack.com/p/laculturadeldato-157
Ricerca & Sviluppo
- PromptPex: Generazione automatica di test per i prompt di modelli linguistici
- Understanding the Limits of Lifelong Knowledge Editing in LLMs
- MedAgentsBench: Benchmarking Thinking Models and Agent Frameworks for Complex Medical Reasoning.
- A Survey on Enhancing Causal Reasoning Ability of Large Language Models
- Plan-and-Act: Migliorare la pianificazione di agenti per compiti a lungo raggio.
- Teaching LLMs How to Learn with Contextual Fine-Tuning
- Towards Reasoning Era: A Survey of Long Chain-of-Thought for Reasoning Large Language Models
- LMM-R1: Empowering 3B LMMs with Strong Reasoning Abilities Through Two-Stage Rule-Based RL.
- A Theory of Learning with Autoregressive Chain of Thought
- Transformers senza Normalizzazione
Strumenti & Tutorial
- Chatbot Arena: Indigo.ai
- Indigo.ai ha creato una piattaforma per valutare e confrontare LLM in italiano. Al momento il primo in classifica è Gemini 2.0
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
- Muse: Sudowrite
- Sudowrite ha creato un modello di IA pensato per chi scrive fiction.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
- Graph RAG
- Microsoft'sGraph RAG demo:
- https://diamantai.substack.com/p/graph-rag-explained
Varie
- Amazon e i robot
- Amazon ha oltre 750.000 robot nei suoi magazzini.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
- Ricerca su Google
- Google gestisce 5 bilioni di ricerche all'anno.
- https://vincos.substack.com/p/anteprima-google-ai-mode-la-search
TENDENZE DELLA SETTIMANA
- AI agenti e automazione: Crescente interesse per lo sviluppo e l'implementazione di agenti autonomi.
- Quantizzazione dei modelli linguistici: L'ottimizzazione dei modelli di grandi dimensioni tramite tecniche di quantizzazione, per migliorare l'efficienza nell'utilizzo delle risorse.
- Ricerca e Sviluppo in Robotica: Sviluppi nell'IA "incarnata", e nello sviluppo e simulazione della sensorialità dei robot.
- AI e Ricerca: Uso di metodi di ricerca come RAG, e la continua evoluzione degli embeddings multilingua.
- L'AI nella ricerca: Importanza dei motori di ricerca e degli strumenti di ricerca potenziati dall'AI per l'accesso e l'analisi delle informazioni.
Ti potrebbe anche interessare
AI News: Mistral, Qwen, Google, Meta AI, Open Source e Tendenze Tech della Settimana
RIASSUNTO NEWSLETTER TECNOLOGICHE AI e Machine Learning Mistral Small 3.1...
Ultime News Tech: AI, Business, Copyright, Sviluppo e Tendenze
RIASSUNTO NEWSLETTER TECNOLOGICHE AI E MACHINE LEARNING ChatGPT: Nuovo Generatore...
Ultime News Tech: Replit Vibe Coding, Modelli AI, Open Source e Policy Aziendali
RIASSUNTO NEWSLETTER TECNOLOGICHE REPLIT - VIBE CODING Vibe Coding su...