Notizie Tecnologiche: AI, Sviluppo Software e Tendenze

RIASSUNTO NEWSLETTER TECNOLOGICHE


AI E MACHINE LEARNING

Libro "Intelligenza Artificiale in 4D" per capire l’AI oltre la superficie
Stefano Gatti e Alberto Danese hanno scritto un libro, disponibile in ebook e cartaceo, che propone una mappa strutturata in quattro dimensioni per comprendere l’intelligenza artificiale in modo concreto, umano e organizzativo. Il libro cerca di sfuggire agli slogan per aiutare lettori di diversi livelli a orientarsi nell’AI generativa e nelle sue sfide tecniche e umane.
Link libro ebook: https://substack.com/redirect/f0c52e48-dd0c-48c5-9925-d0cda4622dcf
Link libro cartaceo: https://substack.com/redirect/a27ca8ca-a5f3-4195-86ab-e3b3f9565dcd

Riflessioni su AI, apprendimento e superamento del sovraccarico informativo
Alberto Danese sottolinea la difficoltà di distinguere fra possibilità tecniche e narrazioni sull’AI e la necessità di focalizzarsi su impatti utili, non solo tecnici. Viene messa al centro la dimensione umana dell’apprendimento e della relazione con gli algoritmi.
Link intervista: https://substack.com/redirect/12e867ee-16a7-4295-bebb-2b0ad4685ad2

Bursting the "AI Is Just Memorization"-Bubble: definizione e misurazione della memorizzazione nei LLM
Un gruppo di ricercatori di Meta, Google DeepMind e altri propongono un nuovo framework matematico per misurare la memorizzazione negli LLM, separando la memorizzazione dovuta a semplice ripetizione dei dati dall'apprendimento utile. Tra le scoperte, GPT-style memorizza circa 3.6 bit per parametro e supera certi limiti prima di passare al generalizzare.
Paper: https://substack.com/redirect/b72ec6c1-a42d-4f9d-90d6-db37b01c13c2
Articolo: https://www.llmwatch.com/p/bursting-the-ai-is-just-memorization

Come le LLM realmente "pensano" e memorizzano
Uno studio basato sulla teoria dell’informazione mostra che LLM comprimono in modo molto efficiente i dati e formano categorie ampie ma non riescono a cogliere alcune sfumature semantiche tipiche della cognizione umana, che privilegia invece ricchezza e flessibilità adattiva.
Articolo completo: https://www.llmwatch.com/p/how-llms-actually-think-and-memorize

AlphaOne: modella il ragionamento lento e veloce nei modelli di ragionamento grande
AlphaOne introduce un sistema che regola dinamicamente il “tempo di pensiero” delle LLM per ottimizzare il bilanciamento tra qualità della risposta e efficienza computazionale, migliorando il ragionamento in compiti complessi come matematica e programmazione.
Paper: https://substack.com/redirect/ce5cea63-1c4b-429f-a978-613bfd65a218
Codice in arrivo: https://substack.com/redirect/5681b955-7456-4df3-b02c-445a36cebf8b

Qwen3 Embeddings e Reranker: potenziamento di retrieval e semantica su base Qwen3
È stata rilasciata una nuova serie Qwen3 di modelli per embedding e reranking, studiata per compiti di ricerca semantica, clustering e systems di raccomandazione con capacità fino a 32K token e 8B parametri. Questi miglioramenti includono pipeline in due stadi per ottimizzare richiamo e precisione.
Modelli: https://substack.com/redirect/c1878fa1-9a91-482f-b1d0-b53814c09c28
Articolo approfondito: https://substack.com/redirect/d60d71f0-522c-4eb7-b627-7dcace180c58

Qwulu 3: fine-tuning di Qwen3 base usando LoRA e ricetta supervisionata TULU 3
Si analizza l’applicazione della ricetta di fine-tuning supervisionato TULU 3 alla base Qwen3 con adattamento LoRA, utilizzando una singola GPU RTX 4090. I risultati mostrano che con questa tecnica si può ridurre il gap rispetto ai modelli totalmente post-allenati, abbassando i costi computazionali.
Demo notebook: https://kaitchup.substack.com/p/qwulu-3-post-training-qwen3-base

TRL introduce packing con FlashAttention per evitare cross-contamination nel fine-tuning supervisionato
TRL ha migliorato la tecnica di concatenamento (packing) di sequenze multiple in blocchi per il fine-tuning, grazie a FlashAttention che maschera correttamente i tokens tra esempi diversi evitando contaminazioni di contesto. Questo migliora l’efficienza addestrativa senza perdita di qualità supervisionale.
Discussione TRL: https://substack.com/redirect/10deb531-624e-4666-bddf-9c8e7ebb1372


SVILUPPO SOFTWARE E ARCHITETTURE TECNOLOGICHE

Come Netflix utilizza Java nel 2025: architettura backend moderna e ottimizzazioni JVM
Netflix basa la maggior parte dei suoi servizi backend su Java, sfruttando architetture federate basate su GraphQL, virtual threads di Java 21+, e moderni garbage collector come ZGC generazionale per migliorare prestazioni e ridurre latenza. La migrazione da JDK 8 a JDK 17+ con Spring Boot unificato è stata fondamentale per evolvere senza riscrivere tutto.
Analisi approfondita: https://blog.bytebytego.com/p/how-netflix-runs-on-java

Differenza tra database SQL, NoSQL e NewSQL: come scegliere per l’applicazione
L’articolo descrive i paradigmi core dei database relazionali (MySQL, PostgreSQL), NoSQL (schemi flessibili, scalabilità orizzontale) e NewSQL (come Google Spanner), evidenziando vantaggi e compromessi in coerenza, scalabilità e performance. Vengono anche citati database specializzati come Redis ed Elasticsearch.
Articolo: https://blog.bytebytego.com/p/sql-vs-nosql-choosing-the-right-database

Introduzione all’Event Sourcing e confronto con modelli CRUD tradizionali
L’Event Sourcing è una filosofia di design dove non si memorizzano stati ma eventi che li generano, tramite un log append-only sequenziato. L’architettura consente ricostruzione degli stati e migliore tracciabilità rispetto a classici modelli CRUD. Viene mostrato un esempio applicativo usando ordini.
Articolo: https://blog.bytebytego.com/p/ep166-what-is-event-sourcing

Come Netflix ha costruito un contatore distribuito scalabile e a bassa latenza
Netflix usa un modello a 4 livelli con API client, archiviazione eventi, pipeline di aggregazione e cache di lettura per tracciare eventi utente con alta efficienza e consistenza eventuale, permettendo 75.000 richieste al secondo con latenza di pochi millisecondi.
Dettagli: https://substack.com/redirect/c3d81adc-a838-47db-ab46-3ccce8bab077

Come funziona il TCP Handshake: i tre passaggi essenziali
Descrizione sintetica delle fasi SYN, SYN-ACK e ACK, con sequenze numeriche e segnali di controllo che stabiliscono le connessioni TCP affidabili tra client e server.
Spiegazione: https://blog.bytebytego.com/p/ep166-what-is-event-sourcing


BUSINESS E TENDENZE TECNOLOGICHE

Gli agenti di intelligenza artificiale: definizione, stato attuale e novità di mercato
Vincos propone una live e approfondimenti sui nuovi agenti AI, oltre a strumenti come ChatGPT Connettori per Deep Research su fonti interne aziendali (Outlook, Teams, Drive, ecc.). Aggiornamenti anche su TikTok, Instagram e nuovi tool (BotScanner per valutare prompt su più modelli, NotebookLM per appunti condivisi).
Articolo: https://vincos.substack.com/p/gli-agenti-di-intelligenza-artificiale

Statistiche sull’uso quotidiano di ChatGPT e panorama IA secondo Mary Meeker
ChatGPT viene usato mediamente quasi 20 minuti al giorno per persona, segnalando un’adozione in crescita e un interesse enorme verso strumenti di IA conversazionale.
Presentazione: https://substack.com/redirect/76ae4912-738b-4174-b0e8-0175aa9c97e1

DeepSeek-R1-0528: il potente modello open LLM in esecuzione su singola GPU 24GB
DeepSeek R1, con 671 miliardi di parametri, è un modello LLM open source competitivo con OpenAI, ma al costo di hardware elevato. Un mix di quantizzazione aggressiva e offloading permette l’esecuzione parsimoniosa su GPU singola da 24GB, mantenendo ottime prestazioni su task complessi.
Articolo: https://kaitchup.substack.com/p/running-deepseek-r1-0528-with-a-single


TENDENZE DELLA SETTIMANA

  • L’attenzione crescente su come comprendere realmente l’AI, oltre la narrazione superficiale, con strumenti didattici strutturati (libro in 4D di Gatti e Danese).
  • L’importanza del bilanciamento tra capacità computazionale ed efficienza nella gestione di LLM (AlphaOne, packing con FlashAttention, LoRA su Qwen3).
  • Evoluzione delle architetture software in contesti estremamente scalabili come Netflix, che rimane fedele a Java ma adotta nuove funzionalità avanzate (virtual threads, ZGC).
  • Dibattito intenso e maturo sulla memorizzazione da parte dei LLM, separando apprendimento da semplice memorizzazione, con modelli capaci di garantire privacy e generalizzazione.
  • L’emergere di agenti AI come nuova categoria e l’integrazione rafforzata di AI con flussi di lavoro aziendali tramite connettori e tool dedicati.
  • Il tema ricorrente dell’accessibilità tecnologica: da toolkit e modelli “budget-friendly” fino a strategie per eseguire mega-modelli su hardware limitato grazie a tecniche di ottimizzazione.

Questo mix riflette un quadro di maturazione dell’ecosistema AI, dove la potenza si combina con consapevolezza, formazione, e praticità d’uso.


Ti potrebbe anche interessare

Riassunto Newsletter Tech: AI, Sistemi Distribuiti, Sviluppo & Tendenze

RIASSUNTO NEWSLETTER TECNOLOGICHE DISTRIBUTED SYSTEMS Lati Oscuri dei Sistemi Distribuiti:...

Newsletter Tech: AI, GPT-4.5, Strategie Business, LinkedIn e Tendenze Digitali

RIASSUNTO NEWSLETTER TECNOLOGICHE AI e Machine Learning TransMLA: miglioramento di...

AI, Sviluppo Software e Trend Tech: Riassunto Newsletter con Llama 4, ChatGPT e Molto Altro

RIASSUNTO NEWSLETTER TECNOLOGICHE AI e Machine Learning DeepSeek-GRM: miglioramento dei...