RIASSUNTO NEWSLETTER TECNOLOGICHE
AI E MACHINE LEARNING
AI Agents of the Week: Nuove architetture e sfide
- Diverse ricerche recenti mostrano progressi nell'architettura degli agenti IA autonomi su vari fronti:
- Memoria a lungo termine e tracking dello stato: framework come SciBORG integrano memoria persistente e modelli di stato interno, migliorando affidabilità e gestione contestuale in compiti prolungati.
- Collaborazione multi-agente avanzata: sistemi a lavagna comune o che combinano ragionamento logico, memoria e teoria della mente permettono a più agenti di coordinarsi su problemi complessi.
- Adattamento in tempo reale: agenti basati su LLM integrano feedback live e ragionamento game-theoretic per adattarsi dinamicamente in ambienti incerti.
- Valutazione rigorosa del ragionamento multi-step: il benchmark DABstep (450 sfide reali) mostra che anche i migliori agenti raggiungono solo il 14% di accuratezza nei task più difficili, sottolineando l’attuale gap.
- Fonte: https://www.llmwatch.com/p/ai-agents-of-the-week-papers-you-7a3
Energy-Based Transformers e MemOS: innovazioni per il ragionamento e la memoria negli LLM
- Meta introduce Energy-Based Transformers, più efficienti del 35% in dati richiesti rispetto ai transformer standard e capaci di “System 2 thinking” tramite minimizzazione energetica, promettendo un grande salto nel ragionamento AI.
- MemOS propone una nuova architettura di memoria per LLM, trattando la memoria come risorsa gestita da un sistema operativo, con notevoli miglioramenti in accuratezza, latenza e uso token.
- Papers e risorse coprono anche survey su AI per ricerca scientifica, web agents open source (Alibaba WebSailor), e modelli medici open source Google MedGemma.
- Fonte: https://www.llmwatch.com/p/the-memory-operating-system-for-ai
Modelli Open e novità da Hugging Face e LiquidAI
- LiquidAI rilascia modelli ibridi (convoluzionali + self-attention) come LFM2-1.2B, ottimizzati per efficienza inferenza ed elevata qualità, superiori a modelli di dimensioni simili.
- Hugging Face introduce SmolLM3, modello open da 3B parametri, bilanciato in prestazioni e velocità, con supporto per contesti lunghi e multi-lingua.
- Google sperimenta un ritorno al modello encoder-decoder con T5Gemma, adattando modelli decoder-only a configurazioni più flessibili, migliorando in alcuni task.
- Fonte: https://kaitchup.substack.com/p/the-weekly-kaitchup-100
Strategie avanzate per il fine-tuning di LLM
- Viene presentata la strategia di batching First Fit Decreasing (FFD) che migliora il packing dei dati per il training, riducendo padding e cross-contamination e accelerando l’addestramento.
- Fonte: https://kaitchup.substack.com/p/better-packing-for-fine-tuning-llms
SVILUPPO SOFTWARE E INFRASTRUTTURE
Come Discord gestisce trilioni di messaggi con alte prestazioni
- Discord ha affrontato sfide immense nella gestione di trilioni di messaggi su milioni di canali, spostandosi da Apache Cassandra® a ScyllaDB per superare problemi di hot partitions, latenza e manutenzione complessa.
- ScyllaDB, scritto in C++ con architettura shard-per-core, elimina pause di garbage collection e migliora scalabilità e stabilità operativa.
- Discord ha introdotto un layer di servizi dati in Rust per controllare il carico sul database, implementando tecniche come request coalescing e routing basato su hash consistente.
- Migrazione effettuata senza downtime in circa 9 giorni grazie a uno strumento di migrazione custom Rust.
- Risultati: riduzione da 177 a 72 nodi, stabilità e latenza p99 a 15 ms in lettura e 5 ms in scrittura, robustezza durante eventi di picco es. finale FIFA 2022.
- Fonte: https://blog.bytebytego.com/p/how-discord-stores-trillions-of-messages
Internals degli indici database: strutture dati
- Panoramica sulle strutture dati che sottendono gli indici nei database, come B-tree, hash, e altre più specialistiche, con focus su ottimizzazione delle operazioni di lettura e scrittura e sul loro impatto sulle performance.
- Fonte: https://blog.bytebytego.com/p/database-index-internals-understanding
DATA SCIENCE, CULTURA E STRATEGIA DIGITALE
LaCulturaDelDato #174: gap di adozione AI nelle aziende e strumenti data
- Il divario tra le capacità AI emergenti e la loro adozione nelle aziende (“capability-absorption gap”) è dovuto a tempi di apprendimento lenti, complessità tecnologica e scarsità di affidabilità della AI stocastica.
- Raccomandazioni: più pratica che normazione, uso di progetti reali anche piccoli, diversificazione di AI in base ai casi.
- DuckDB viene segnalato come database relazionale colonnare, compatibile SQL, in-process, ideale per data analyst/scientist grazie a integrazione facile con Python e file Parquet/CSV.
- Critica alla “stealth mode” nelle startup, vista spesso come marketing nascosto più che reale vantaggio competitivo.
- Segnalazione Annuario ISTAT 2024 come risorsa fondamentale di dati demografici e socioeconomici italiani per data scientist.
- L’“avvocato nerd” Massimiliano Nicotra offre risorse sulla AI generativa applicata al diritto, inclusa l’arte del prompt engineering.
- Fonte: https://stefanogatti.substack.com/p/laculturadeldato-174
BUSINESS TECH E STRATEGIE
Aggiornamenti da Vincos: AI, Startup, Mercati e Tool
- Linda Yaccarino lascia X (ex Twitter); il controllo si concentra sul chatbot Grok che raccoglie critiche per contenuti inappropriati.
- Grok 4 e varianti multi-agente sono ora disponibili in abbonamento Premium+ costoso.
- Google acquisisce talenti chiave da Windsurf, azienda di AI per sviluppatori.
- Meta investe 3,5 miliardi in EssilorLuxottica per smart glasses Ray-Ban.
- Perplexity lancia Comet, browser AI per competere con Chrome e Google Search, disponibile per abbonati da $200.
- Clorox investe 580 milioni in trasformazione digitale con AI.
- Prompt per programmare azioni automatiche con Gemini e guida di stili fotografici con ChatGPT disponibili gratuitamente.
- Fonte: https://vincos.substack.com/p/crea-agenti-ia-evoluti-con-n8n
TENDENZE DELLA SETTIMANA
- Evoluzione degli agenti AI autonomi con focus su memoria persistente, collaborazione multi-agente e adattamento dinamico in ambienti complessi.
- Innovazioni nell’architettura di modelli e memoria LLM, come Energy-Based Transformers e MemOS, per migliorare efficienza e capacità di ragionamento.
- Apertura e qualità dei modelli open source di dimensioni medie-piccole (es. LiquidAI, SmolLM3), ottimizzati per efficienza in inferenza e casi d’uso specifici.
- Infrastrutture di backend per la gestione massiva di dati, come la migrazione Discord da Cassandra a ScyllaDB con servizi Rust per stabilità e prestazioni.
- Diffusione crescente di database analitici in-process come DuckDB nel mondo data science.
- Sfide culturali e organizzative nell’adozione AI nelle aziende: gap tra capacità tecnologica e capacità di assorbimento, complessità organizzativa e affidabilità.
- Maggiore attenzione a strategie di fine-tuning efficaci e strumenti per migliorare training e inferenza degli LLM.
- Strategie di mercato e business AI con investimenti mirati, sviluppo tool AI avanzati e nuovi modelli di monetizzazione (es. abbonamenti premium, soluzioni collaborative).
Questo documento riassume le principali novità, analisi e trend della settimana scorsa dalle newsletter tecnologiche analizzate.
Ti potrebbe anche interessare
Riassunto Newsletter Tech: AI, Sistemi Distribuiti, Sviluppo & Tendenze
RIASSUNTO NEWSLETTER TECNOLOGICHE DISTRIBUTED SYSTEMS Lati Oscuri dei Sistemi Distribuiti:...
Newsletter Tech: AI, GPT-4.5, Strategie Business, LinkedIn e Tendenze Digitali
RIASSUNTO NEWSLETTER TECNOLOGICHE AI e Machine Learning TransMLA: miglioramento di...
AI, Sviluppo Software e Trend Tech: Riassunto Newsletter con Llama 4, ChatGPT e Molto Altro
RIASSUNTO NEWSLETTER TECNOLOGICHE AI e Machine Learning DeepSeek-GRM: miglioramento dei...