Biblioteca https://www.intellygenza.com/index.php/it it I migliori modelli text-to-speech del 2025 https://www.intellygenza.com/index.php/it/i-migliori-modelli-text-speech-del-2025 <span>I migliori modelli text-to-speech del 2025</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>Scopri i migliori modelli di sintesi vocale AI disponibili online. Analizziamo le caratteristiche, i punti di forza e le applicazioni dei migliori servizi di text-to-speech del 2025.</p><hr /><h3>Cos’è un Text-to-Speech e come funziona?</h3><p>La tecnologia <strong>text-to-speech (TTS)</strong> permette di trasformare un testo scritto in un testo parlato in modo realistico e naturale. L'avvento di modelli di intelligenza artificiale avanzati ha aumentato esponenzialmente la capacità di questa tecnologia, producendo software in grado di <strong>replicare la voce umana con espressioni, accenti e toni personalizzabili</strong>.</p><p>📌 <strong>Dove si usa il TTS?</strong></p><p>🎧 Audiolibri e Podcast – Per una narrazione automatizzata e coinvolgente</p><p>🦾 Accessibilità – Aiuta le persone con disabilità visive o difficoltà di lettura</p><p>🎮 Gaming &amp; VR – Utilizzato per NPC e assistenti virtuali</p><p>📢 Marketing &amp; Pubblicità – Creazione di annunci vocali senza bisogno di doppiatori</p><p>📚 E-learning – Lettura automatica di testi didattici</p><p>💡 Oggi alcuni modelli riescono anche a <strong>comprendere il contesto del testo</strong> prima di convertirlo in audio, generando voci iperrealistiche e ricche di sfumature​.</p><hr /><h2><strong>🧐 </strong>Come scegliere il miglior modello TTS?</h2><p>A differenza dei chatbot AI - che vantano numerose classifiche e piattaforme dedicate come la <a href="https://lmarena.ai/">Chatbot Arena</a> - <strong>non esiste un benchmark universale per misurare la qualità dei modelli TTS</strong>​. Tuttavia, ci sono alcuni fattori chiave da considerare:</p><ul><li>Naturalezza della voce – Deve suonare umana, senza intonazioni robotiche</li><li>Espressività ed emozione – Alcuni modelli permettono di regolare il tono e l’interpretazione</li><li>Velocità di elaborazione – I migliori generatori forniscono voci quasi in tempo reale</li><li>Supporto multilingua – L'italiano, per esempio, non è sempre disponibile, o è molto meno avanzato rispetto all'inglese</li><li>Facilità d’uso – Un’interfaccia intuitiva aiuta a ottimizzare il flusso di lavoro</li></ul><p>📢 Esiste, inoltre, la <a href="https://huggingface.co/spaces/TTS-AGI/TTS-Arena">TTS Arena su Hugging Face</a>, dove la community valuta la qualità delle voci​. In cima alla classifica troviamo EvenLabs e PlayHT, entrambi riportati nella lista che segue. Sulla scia dell'arena di Hugging Face, è stata recentemente aperta al pubblico anche la <a href="https://arena.hume.ai/">Expressive TTS Arena</a> da Hume.</p><hr /><p><strong>🔥I migliori modelli text-to-speech</strong></p><p>Ecco una selezione dei migliori strumenti di sintesi vocale disponibili online, con <strong>supporto per la lingua italiana</strong> ove indicato.</p><h2><strong>1️⃣ </strong>Octave AI</h2><p>Octave è <strong>il primo TTS basato su un modello linguistico</strong>, quindi <strong>comprende il contesto</strong> e offre <strong>voci espressive e realistiche</strong>. Tuttavia, ha qualche difficoltà con l'italiano.</p><p>💡 <strong>Punti di forza:</strong></p><ul><li>🗣 Voce naturale e adattabile a qualsiasi stile</li><li>🌍 Supporto per diversi accenti e personalità</li><li>🎭 Controllo delle emozioni (es. "<em>sussurra</em>", "<em>parla con entusiasmo</em>")</li><li>⏩ Generazione rapida<strong> </strong>in meno di <strong>5 minuti</strong></li></ul><p><strong>Piani</strong>:</p><ul><li>Piano gratuito: 10.000 caratteri al mese</li><li>Piano Starter: $3/mese, 30.000 caratteri </li><li>Piano Creator: $10/mese, 100.000 caratteri </li><li>Piano Pro: $50/mese, 500.000 caratteri </li><li>Piano Scale per startup: $150/mese, 2.000.000 caratteri </li><li>Piano Business: $900/mese, 10.000.000 caratteri </li><li>Piano Enterprise: Prezzo personalizzato, utilizzo illimitato</li><li>Compara i <a href="https://platform.hume.ai/billing">piani</a></li></ul><p><a href="https://www.youtube.com/watch?v=betkiRw9MD8&amp;ab_channel=HumeAI">Ecco la presentazione del modello su Youtube</a></p><p>📌 <strong>Provalo qui:</strong> <a href="https://hume.ai">Hume AI - Octave</a></p><img alt="humeai" data-entity-type="file" data-entity-uuid="bd7ac041-6944-4d7c-91dc-309f862330c4" src="/sites/default/files/inline-images/image_31.png" width="1005" height="737" loading="lazy" />Octave AI<hr /><h2><strong>2️⃣ </strong>ElevenLabs</h2><p>EvenLabs è uno <strong>tra i software TTS più diffusi e utilizzati</strong>. È rinomato per produrre le voci AI più realistiche sul mercato, tanto da essere difficilmente distinguibili dalle voci umane autentiche. La piattaforma è ideale per risparmiare tempo nella registrazione di voiceover per audiolibri, video, podcast e altro. È semplice, con un'interfaccia intuitiva, un piano gratuito piuttosto completo e un efficace sistema di supporto dedicato.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Voci AI estremamente naturali e realistiche</li><li>✅ Interfaccia utente pulita e facile da usare</li><li>✅ Piano gratuito senza necessità di carta di credito</li><li>✅ Piani a prezzo accessibile per individui e team</li><li>✅ Supporto dedicato e reattivo con molte risorse utili</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Numero limitato di voci nel piano gratuito</li><li>❌ Potrebbe mancare alcune funzionalità avanzate di editing presenti in altre piattaforme</li></ul><p><strong>Utente ideale:</strong> Creatori di contenuti narrativi, podcaster, produttori di audiolibri, narratori video.</p><p><strong>Piani:</strong></p><ul><li>Piano gratuito: 10.000 caratteri al mese</li><li>Piano Starter: $5/mese</li><li>Piano Creator: $22/mese (con sconto del primo mese a $11)</li><li>Piano Pro: $99/mese</li><li>Piano Scale per startup: $330/mese</li><li>Piano Business: $1320/mese</li><li>Piano Enterprise: Prezzo personalizzato</li><li>Compara i <a href="https://elevenlabs.io/pricing ">piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://elevenlabs.io">ElevenLabs</a></p><p>📽 <a href="https://www.youtube.com/watch?v=XHcMKZszBEE">Video dimostrativo<strong> </strong>(in italiano) su YouTube</a></p><img alt="evenlabs" data-entity-type="file" data-entity-uuid="1fe6afe2-06e9-496d-9f2a-771d21cedf3e" src="/sites/default/files/inline-images/image_32.png" width="1208" height="577" loading="lazy" />EvenLabs<hr /><h2>3️⃣ Lovo.ai </h2><p>Un'alternativa altrettanto diffusa è Lovo.ai, utile soprattutto ai content creatore perché dispone di un editor video integrato e di un generatore di sottotitoli. Offre una libreria diversificata di voci per vari settori come intrattenimento, banche, istruzione, gaming e news. Recentemente ha introdotto Genny, un generatore avanzato che combina funzionalità text-to-speech con editing video, permettendo agli utenti di generare voci realistiche e modificare i video contemporaneamente. Tuttavia, il piano gratuito presenta molte limitazioni. <br /><br /><strong>Punti di forza:</strong></p><ul><li>✅ Libreria di oltre 500 voci AI in più di 150 lingue</li><li>✅ Controllo granulare con editor di pronuncia, enfasi e controlli del tono</li><li>✅ Funzionalità di editing video integrate</li><li>✅ Database di risorse con interiezioni non verbali, effetti sonori e musica royalty-free</li><li>✅ Localizzazione dei contenuti con un solo clic</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Potrebbe risultare costoso per utenti individuali con esigenze limitate</li><li>❌ Curva di apprendimento iniziale per sfruttare tutte le funzionalità avanzate</li></ul><p><strong>Utente ideale:</strong> Content creator professionisti, produttori audiovisivi, aziende con necessità di localizzazione in più lingue.</p><p><strong>Piani:</strong></p><ul><li>Piano gratuito con funzionalità limitate per testare il prodotto</li><li>Piano Basic: $24/mese per utente, 2 ore di generazione vocale al mese</li><li>Piano Pro: $24,48/mese per utente, 5 ore di generazione vocale al mese (sconto del 50% per il primo anno)</li><li>Piano Pro+: $75,149/mese per utente, 20 ore di generazione vocale al mese (sconto del 50% per il primo anno)</li><li>Piano Enterprise: Prezzo personalizzato</li><li>Compara i <a href="https://lovo.ai/it/pricing">piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://www.lovo.ai">Lovo.ai</a><br /><br />📌<a href="https://www.allaboutai.com/it-it/recensioni-di-ia/lovo-ai/">Recensione in italiano di Lovo.ai</a></p><img alt="lovo" data-entity-type="file" data-entity-uuid="8aa62cfc-701d-4840-afff-b3ae86f43f46" src="/sites/default/files/inline-images/image_33.png" width="1129" height="499" loading="lazy" />Lovo<hr /><h2><strong>4️⃣ </strong>Murf AI </h2><p>Murf è all'avanguardia nella tecnologia di generazione vocale AI, offrendo una soluzione premium sia per individui che per aziende che desiderano migliorare i loro progetti audio. Utilizza algoritmi AI sofisticati e apprendimento profondo per trasformare il testo scritto in discorsi sorprendentemente naturali e realistici. È particolarmente adatto per sviluppatori di prodotti, podcaster, educatori e professionisti nel mondo aziendale.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Ampia libreria di oltre 110 voci in 15 lingue</li><li>✅ Stili di parlato emotivi ed espressivi</li><li>✅ Regolazione di tono e intonazione della voce</li><li>✅ Supporto per input audio e testo</li><li>✅ Voci TTS eccezionalmente realistiche e prive di imperfezioni</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Alcune voci più specializzate potrebbero richiedere piani a pagamento più elevati</li><li>❌ Potrebbe richiedere più regolazioni per ottenere il tono esatto desiderato</li></ul><p><strong>Utente ideale:</strong> Content creator aziendali, formatori, sviluppatori di prodotti, podcaster professionisti.</p><p><strong>Piani:</strong></p><ul><li>Piano Gratuito<strong>:</strong> 2 progetti, 10 minuti di generazione vocale</li><li>Piano Creator: $19/mese, 5 progetti, 24 ore/anno di generazione vocale</li><li>Piano Business: $66/mese, 50 progetti, 96 ore/anno di generazione vocale,</li><li>Piano Enterprise: Prezzo personalizzato</li><li><a href="https://murf.ai/pricing">Compara i piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://murf.ai/">Murf AI</a></p><hr /><h2><strong>5️⃣</strong>Speechify</h2><p>Speechify eccelle nella trasformazione di testo da vari formati in discorso che suona naturale e fluido. Disponibile online, questa piattaforma versatile può convertire testo da PDF, email, documenti o articoli in audio, offrendo un'alternativa alla lettura. Gli utenti possono regolare la velocità di lettura in base alle loro preferenze e scegliere tra un'ampia selezione di oltre 200 voci naturali.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Basato sul web con estensioni per Chrome e Safari</li><li>✅ Oltre 200 voci di alta qualità</li><li>✅ Supporto per 20+ lingue e accenti</li><li>✅ Controlli granulari su intonazione, tono e velocità</li><li>✅ Diritti di utilizzo commerciale inclusi</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ L'integrazione con alcune piattaforme potrebbe richiedere configurazioni aggiuntive</li><li>❌ Alcune funzionalità avanzate sono disponibili solo nei piani a pagamento</li></ul><p><strong>Utente ideale:</strong> Professionisti che consumano molti contenuti di testo, studenti, persone con difficoltà di lettura, creatori di contenuti.</p><p><strong>Piani:</strong></p><ul><li>Piano Gratuito: 10 voci standard</li><li>Piano Premium: $11.58/mese, 200+ voci naturali di alta qualità</li><li><a href="Limited Start for free $0.00 per month / user Try for Free 10 standard reading voices Listen at speeds up to 1x Listen anywhere Text to speech features only Premium Full Speechify Experience $11.58 per month / user Get Text to Speech 200+ high quality, natural reading voices 60+ different languages Scan and listen to any printed text Listen at 5x faster speeds Advanced skipping and importing">Compara i piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://speechify.com/">Speechify</a></p><img alt="speechify" data-entity-type="file" data-entity-uuid="a5c4ca5f-5de1-4d04-adfe-16896cdd9153" src="/sites/default/files/inline-images/image_35.png" width="986" height="645" loading="lazy" />Speechify<hr /><h2>6️⃣ WellSaid Labs</h2><p>WellSaid è una piattaforma web innovativa progettata per creare voiceover utilizzando Voci AI Generative. Si distingue per la sua vasta gamma di voci AI sempre pronte a creare voiceover rapidamente dopo l'inserimento del testo. Ciò che differenzia WellSaid dai concorrenti è la qualità straordinariamente realistica delle sue voci AI, valutate realistiche quanto le registrazioni umane reali.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Varietà di voci disponibili 24/7</li><li>✅ Oltre 50 voci AI di alta qualità</li><li>✅ Possibilità di insegnare all'AI come pronunciare termini specifici</li><li>✅ Nessun collo di bottiglia legato a talenti o studi</li><li>✅ Aggiornamenti e modifiche in pochi minuti</li><li>✅ Rendering due volte più veloce rispetto allo script parlato</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Numero di voci inferiore rispetto ad alcuni concorrenti</li><li>❌ Prezzi che potrebbero essere elevati per utenti individuali</li></ul><p><strong>Utente ideale:</strong> Aziende con grandi necessità di formazione, sviluppatori di e-learning, team di marketing che necessitano di voiceover rapidi e professionali.</p><p><strong>Piani:</strong></p><ul><li>Trial: Gratuito (include accesso a tutte le funzionalità per 1 settimana)</li><li>Creative: €89,08 al mese (20 progetti)</li><li>Business: €179,00 per utente al mese (100 progetti per utente)</li><li>Piano Enterprise: Prezzo personalizzato</li><li><a href="wellsaid">Compara i piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="//www.wellsaid.io/">Speechify</a></p><hr /><h2>7️⃣ Fliki</h2><p>Fliki trasforma il processo di creazione di contenuti audio e video in un'attività semplice, simile alla scrittura di un testo attraverso il suo editor basato su script. Con questo strumento, è possibile creare rapidamente video con voiceover realistici, alimentati dalla tecnologia AI. La libreria di Fliki vanta oltre 2000 voci text-to-speech realistiche in più di 75 lingue.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Trasforma prompt testuali in video completi</li><li>✅ 2000 voci text-to-speech realistiche</li><li>✅ Supporto per 75+ lingue</li><li>✅ Non richiede esperienza di editing video</li><li>✅ Integrazione di capacità AI text-to-video e text-to-speech</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Alcune personalizzazioni avanzate potrebbero richiedere conoscenze tecniche</li><li>❌ La qualità dei video generati potrebbe variare a seconda della complessità</li></ul><p><strong>Utente ideale:</strong> Content creator per social media, professionisti del marketing, educatori, piccole imprese senza esperienza di editing video.</p><p><strong>Piani:</strong></p><ul><li>Piano Gratuito: 5 minuti di crediti al mese</li><li>Piano Standard: $21 al mese (2160 minuti di crediti all'anno)</li><li>Piano Premium: $66 al mese (7200 minuti di crediti all'anno)</li><li>Piano Enterprise: Prezzo personalizzato</li><li><a href="https://fliki.ai/pricing">Compara i piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://fliki.ai/">Fliki</a></p><hr /><h2>8️⃣Altered</h2><p>Altered Studio rappresenta l'avanguardia della tecnologia di editing audio, integrando perfettamente vari strumenti vocali in un'unica applicazione user-friendly. Questa piattaforma all'avanguardia è accessibile sia online che come applicazione locale per Windows e Mac, sfruttando le risorse di calcolo del dispositivo in uso.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Creazione di voci personalizzate specifiche (celebrità, talent, amici)</li><li>✅ Text-to-speech realistico per voiceover in 70+ lingue</li><li>✅ Trascrizione rapida e accurata da note audio a conversazioni</li><li>✅ Integrazione con Google Drive, facilità di condivisione</li><li>✅ Possibilità di registrare direttamente dal browser tramite microfono</li><li>✅ Supporto per numerosi formati di importazione/esportazione</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Alcune funzionalità avanzate potrebbero richiedere conoscenze tecniche</li><li>❌ Le prestazioni possono variare in base alle risorse del dispositivo quando usato localmente</li></ul><p><strong>Utente ideale:</strong> Professionisti del doppiaggio, editor audio, creatori di contenuti multilingue, podcaster.</p><p><strong>Piani:</strong></p><ul><li>Piano Free: 10.000 AI Tokens</li><li>Piano Real-Time: €1 al mese (25.000 AI Tokens)</li><li>Piano Creator: €29 al mese (325.000 AI Tokens)</li><li>Piano Professional: €87 al mese (1.000.000 AI Tokens)</li><li><a href="https://www.altered.ai/pricing/">Compara i pian</a>i</li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://www.altered.ai/">Altered</a></p><hr /><h2>9️⃣ TTSOpenAI</h2><p>TTSOpenAI è un generatore di voce AI avanzato che trasforma testo, PDF ed eBook in discorsi naturali e umani. A differenza di molti servizi a pagamento, offre accesso completamente gratuito e illimitato. Alimentato dalla tecnologia vocale all'avanguardia di OpenAI, produce audio espressivo e realistico con intonazione fluida e supporto multilingue.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Generazione vocale AI gratuita e illimitata per testo, PDF ed eBook</li><li>✅ Voci naturali ed espressive con supporto multilingue</li><li>✅ Multiple voci AI, velocità regolabili e modalità Story Maker</li><li>✅ Download MP3 semplici senza setup tecnico</li><li>✅ Ideale per voiceover, audiolibri e creazione di contenuti</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Potrebbe mancare alcune funzionalità avanzate presenti nelle piattaforme premium</li><li>❌ Minore varietà di voci rispetto ai servizi a pagamento</li></ul><p><strong>Utente ideale:</strong> Studenti, creator con budget limitato, piccole imprese, educatori, chiunque necessiti di soluzioni vocali di qualità senza costi.</p><p><strong>Piani:</strong></p><ul><li>Completamente gratuito e illimitato</li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://ttsopenai.com/">TTSOpenAI</a></p><img alt="TTSOpenai" data-entity-type="file" data-entity-uuid="3e5553d9-888f-4bf4-824d-62de97504665" src="/sites/default/files/inline-images/image_36.png" width="1840" height="703" loading="lazy" />TTSOpenAI<hr /><h2>🔟 Play.ht</h2><p>Play.ht si distingue come un generatore text-to-speech AI avanzato, che utilizza tecnologia all'avanguardia da leader come IBM, Microsoft, Amazon e Google per produrre audio e voci. Questo strumento eccelle nella trasformazione del testo in voci naturali, offrendo la comodità di scaricare i voiceover generati in formati MP3 e WAV.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Conversione di post del blog in audio</li><li>✅ Integrazione di sintesi vocale in tempo reale</li><li>✅ Oltre 570 accenti e voci</li><li>✅ Voiceover realistici per podcast, video, e-learning e altro</li><li>✅ Personalizzazione dell'output audio utilizzando tag SSML</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ La qualità può variare tra le diverse voci del catalogo</li><li>❌ Alcune funzionalità avanzate richiedono piani premium</li></ul><p><strong>Utente ideale:</strong> Blogger, podcaster, sviluppatori di applicazioni, creatori di e-learning, produttori di video.</p><p><strong>Piani di prezzo:</strong></p><ul><li>Piano Creator: $19.00 al mese (250.000 caratteri al mese)</li><li>Piano Professional: $99.00 al mese (1 milione di caratteri al mese)</li><li>Piano Unlimited: $330.00 al mese (caratteri illimitati al mese)</li><li>Piano Enterprise: Prezzo personalizzato</li><li><a href="https://play.ht/pricing/">Compara i piani</a></li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://play.ht/">PlayHT</a></p><hr /><h2>🔟➕1️⃣Resemble.ai</h2><p>Resemble.ai si distingue nel settore della tecnologia text-to-speech (TTS), principalmente per la sua capacità di generare voci AI eccezionalmente naturali e simili a quelle umane. Il cuore della sua offerta sono i modelli TTS avanzati che non si limitano a produrre discorso, ma lo arricchiscono con emozioni autentiche e gamma dinamica, rendendo il contenuto estremamente realistico.</p><p><strong>Punti di forza:</strong></p><ul><li>✅ Oltre 40 voci AI pronte all'uso con vari accenti internazionali</li><li>✅ Capacità di clonazione vocale AI personalizzata ad alta precisione</li><li>✅ Ampia libreria di voci adatte a tutto, dall'uso aziendale all'intrattenimento</li><li>✅ Tecniche avanzate di modulazione vocale per narrazioni dinamiche</li><li>✅ API user-friendly per facile integrazione e scalabilità</li><li>✅ Grande attenzione all'etica e alla sicurezza</li></ul><p><strong>Punti deboli:</strong></p><ul><li>❌ Numero di voci predefinite inferiore rispetto ad alcuni concorrenti</li><li>❌ Il processo di clonazione vocale potrebbe richiedere dati di qualità</li></ul><p><strong>Utente ideale:</strong> Aziende che necessitano di voci personalizzate, sviluppatori di applicazioni, creatori di contenuti per l'accessibilità, produttori di audiolibri e podcast.</p><p><strong>Piani di prezzo:</strong></p><ul><li>Piano Starter: $5 al mese (4.000 secondi inclusi)</li><li>Piano Creator: $19 al mese (15.000 secondi inclusi)</li><li>Piano Professional: $99 al mese (45.000 secondi inclusi)</li><li>Piano Scale: $299 al mese (120.000 secondi inclusi)</li><li>Piano Business: $699 al mese (360.000 secondi inclusi)</li><li>Piano Enterprise: Prezzo personalizzato</li></ul><p>📌 <strong>Provalo qui:</strong> <a href="https://www.resemble.ai/">Resemble.ai</a></p><hr /><h3>Altri Modelli TTS </h3><table><thead><tr><th>Modello</th><th>Supporto Italiano</th><th>Caratteristiche principali</th></tr></thead><tbody><tr><td><a href="https://www.cross-plus-a.com/it/balabolka.htm"><strong>Balabolka</strong></a></td><td>✅</td><td>Software gratuito per PC, converte testo in MP3</td></tr><tr><td><a href="https://www.naturalreaders.com/"><strong>NaturalReader</strong></a></td><td>✅</td><td>Ottimo per PDF e documenti testuali</td></tr><tr><td><a href="https://it.vidnoz.com/"><strong>Vidnoz</strong></a></td><td>✅</td><td>Generatore vocale (e video) gratuito online</td></tr><tr><td><a href="https://speechgen.io/"><strong>SpeechGen.io</strong></a></td><td>✅</td><td>Supporta voci realistiche con intelligenza neurale</td></tr><tr><td><a href="https://cloud.google.com/text-to-speech"><strong>Google Text-to-Speech</strong></a></td><td>✅</td><td>Integrato su Android e Google Cloud (a pagamento)</td></tr></tbody></table><hr /><h2><strong>📢 Modelli Open-Source Scaricabili da GitHub</strong></h2><p>Se preferisci usare <strong>modelli gratuiti e open-source</strong>, esistono alternative scaricabili:</p><p>🎯 <strong>Ecco alcune opzioni popolari:</strong></p><ul><li><strong>XTTS-v2</strong> → Ottimo per il voice cloning</li><li><strong>MeloTTS</strong> → Perfetto per l’italiano e altre lingue</li><li><strong>OpenVoice</strong> → Supporta il controllo dello stile</li></ul><p>📌 <strong>Dove trovarli?</strong><br />Scopri di più sulla <a href="https://www.bentoml.com/blog/exploring-the-world-of-open-source-text-to-speech-models">guida ai modelli open-source di Bento LM</a>​.</p><p> </p></div> <span><span>Sari</span></span> <span><time datetime="2025-03-06T13:36:43+01:00" title="Giovedì, Marzo 6, 2025 - 13:36">Gio, 03/06/2025 - 13:36</time> </span> <div> <div class="item"> <a href="/it/i-migliori-modelli-text-speech-del-2025" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/62b264ced6e2c5184b2ce2d4_The-8-Best-TTS-Voice-Providers-p-1600-1-4.jpeg" alt="text_to_speech" /> </a> </div></div> <span class="portfolio-tags " ><a href="/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/it/biblioteca" hreflang="it">Biblioteca</a></span> Thu, 06 Mar 2025 12:36:43 +0000 Sari 312 at https://www.intellygenza.com Creare siti web con l'AI https://www.intellygenza.com/index.php/it/creare-siti-web-con-lai <span>Creare siti web con l&#039;AI</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>L'AI sembra essere sempre più brava a <strong>realizzare siti web</strong>. Ma quale modello scegliere fra i trilioni di intelligenze artificiali esistenti? Proprio per rispondere a questa domanda, LMArena ha creato <strong>WebDev Arena</strong>, una piattaforma che classifica i modelli AI in base alla loro capacità di programmazione web.</p><hr /><h2>Cos'è WebDev Arena?</h2><p><a href="https://web.lmarena.ai/"><strong>WebDev Arena</strong></a><strong> </strong>è una piattaforma open-source sviluppata da <a href="https://lmarena.ai/">LMArena</a>, prima conosciuta come LMSYS Org. Quest'ultima è una piattaforma di benchmark conosciuta per <a href="https://lmarena.ai/?leaderboard=">Chatbot Arena</a>, che valuta e classifica i chatbot più famosi, come Claude o Chat GPT. Recentemente, la piattaforma ha aggiunto anche <strong>WebDev Arena</strong>, una classifica sperata che mette in competizione i diversi modelli AI nella <strong>programmazione web</strong>. Gli utenti possono osservare i risultati in tempo reale, votare le migliori soluzioni e consultare la classifica dei modelli più performanti. Dal momento che la classifica è il semplice risultato dell'insieme voti di una moltitudine di utenti volontari, la piattaforma offre un modo <strong>trasparente</strong> per confrontare le capacità di diversi LLM.</p><h3>Come funziona WebDev Arena?</h3><p>Dall'interfaccia principale, l'utente può esprimere la propria richiesta tramite prompt (es. <em>crea un gioco di scacchi online, clona un editor di codice come VS Code, realizza una dashboard per metriche aziendali</em>). </p><img src="/sites/default/files/inline-images/image_29.png" data-entity-uuid="f82359d0-f9ed-43e6-8069-071a508fac8e" data-entity-type="file" alt="prompt:webdevarena" width="1270" height="758" loading="lazy" /><p>Successivamente, due diversi sistemi di intelligenza artificiale svilupperanno l'applicazione o il sito web richiesto. La piattaforma inviterà quindi l'utente - che non sa quali modelli sta valutando - a decidere quale dei due risultati sia più soddisfacente, con la possibilità di segnalare un pareggio o l'insoddisfazione per entrambi gli output.</p><h2>La classifica attuale</h2><p>WebDev Arena testa un’ampia gamma di modelli AI. Ecco la classifica attuale:</p><a href="https://lmarena.ai/?leaderboard="><img alt="leaderboard_lmarena" data-entity-type="file" data-entity-uuid="d490f7cf-db84-4199-b677-c3d2b288f166" src="/sites/default/files/inline-images/image_30.png" width="1219" height="849" loading="lazy" /></a> <a href="https://lmarena.ai/?leaderboard=">Fonte: LMArena</a><p>Sorprendentemente, <strong>Claude 3.7 Sonnet</strong> e <strong>3.5 Sonnet</strong> - i due modelli più avanzati di Anthropic - sono in cima alla classifica, nelle <strong>prime due posizion</strong>i: DeepSeek R1, Grok 3 e GPT o3-mini - tutti modelli rilasciati di recente - non hanno ancora superato il "vecchio" - ma sempre affidabile - Claude 3.5 Sonnet.</p><p>🔗 Per scoprire di più e provare WebDev Arena, visita: <a href="https://webdev.lmarena.ai">webdev.lmarena.ai</a></p></div> <span><span>Sari</span></span> <span><time datetime="2025-03-05T18:19:17+01:00" title="Mercoledì, Marzo 5, 2025 - 18:19">Mer, 03/05/2025 - 18:19</time> </span> <div> <div class="item"> <a href="/it/creare-siti-web-con-lai" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/a-cinematic-shot-of-two-websites-fightin_5sawAQ7ASKWPQjp05hojfA_mUtf-u8uTJmcMveIOJKe9g.jpeg" alt="Ai_websites" /> </a> </div></div> <span class="portfolio-tags " ><a href="/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/it/biblioteca" hreflang="it">Biblioteca</a></span> Wed, 05 Mar 2025 17:19:17 +0000 Sari 311 at https://www.intellygenza.com Abbiamo ancora bisogno del Prompt Engineering? https://www.intellygenza.com/index.php/it/abbiamo-ancora-bisogno-del-prompt-engineering <span>Abbiamo ancora bisogno del Prompt Engineering?</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>Sin dal famigerato novembre 2022, il <a href="https://intellygenza.ai/it/guida-galattica-al-prompt-perfetto">Prompt Engineering</a> è considerato una delle migliori strategie per ottenere il massimo dall'intelligenza artificiale. Ma con l’avvento dei modelli di ragionamento, da <a href="https://intellygenza.ai/index.php/it/la-potenza-lintelligenza-e-la-creativita-di-o1-120-qi">o1</a> a <a href="https://intellygenza.ai/it/deepseek-la-migliore-ai-open-source-cinese">DeepSeek-R1</a> al recentissimo<a href="https://intellygenza.ai/it/chat-gpt-o3-mini-e-high-tutto-quello-che-devi-sapere"> o3-mini</a>, questa tecnica è stata rivalutata. È ancora necessario il Prompt Engineering? Quali tecniche funzionano davvero? E in quali casi dovremmo preferire un modello di ragionamento ad uno normale? <br /><br />Questo articolo esamina le ultime ricerche per capire come ottimizzare i prompt e ottenere il massimo dagli ultimi modelli AI.</p><p>Le informazioni presentate si basano sui report pubblicati su <a href="https://www.prompthub.us/blog/prompt-engineering-with-reasoning-models">PromptHub</a>, una piattaforma specializzata nell’analisi e nell’ottimizzazione dei prompt per modelli di linguaggio avanzati.</p><hr /><h2>Prompt Engineering: cosa cambia con i modelli di ragionamento?</h2><p>I modelli di ragionamento sono progettati per gestire compiti complessi senza bisogno di istruzioni dettagliate. Rispetto ai modelli tradizionali, si distinguono per:</p><ul><li><strong>Capacità di ragionamento autonomo:</strong> Elaborano risposte più articolate senza necessità di Chain-of-Thought espliciti (un prompt che spinge il modello a "ragionare" e spiegare i passaggi logici prima di rispondere).</li><li><strong>Minore dipendenza da Few-Shot Prompting:</strong> Una delle tecniche più diffuse di prompt engineering è il Few-Shot-Prompting, che consiste nell'includere nel prompt alcuni esempi per guidare la risposta del modello. Le ultime ricerche dimostrano che l’aggiunta di esempi può addirittura ridurre le prestazioni di modelli di ragionamento come o1.</li><li><strong>Migliore gestione di problemi complessi:</strong> Se un compito richiede più passaggi di ragionamento, modelli come o1-preview superano GPT-4o. Secondo i dati riportati da PromptHub, per compiti che richiedono <strong>più di cinque passaggi</strong> di ragionamento, i modelli come o1-preview superano i modelli tradizionali con un margine di <strong>16,67%</strong> in accuratezza.</li></ul><hr /><h2>Strategie di Prompt Engineering: cosa funziona e cosa no</h2><h4><strong>✅</strong> Zero-Shot Prompting: il metodo più efficace</h4><p>Secondo le ultime ricerche pubblicate su <a href="https://www.prompthub.us/blog/prompt-engineering-with-reasoning-models#prompt-engineering-with-reasoning-vs.-non-reasoning-models">PromptHub</a>, i modelli di ragionamento spesso ottengono risultati migliori con <strong>zero-shot prompting</strong>, ossia un semplice prompt senza esempi. Ad esempio:</p><ul><li>Nella <strong>traduzione di codice</strong> (da un linguaggio di programmazione a un altro), o1-preview ha superato GPT-4o anche senza CoT.</li><li>Per la <strong>programmazione</strong>, i prompt più semplici hanno prodotto risultati migliori rispetto a quelli strutturati.</li></ul><p><strong>👉 Consiglio:</strong> Quando usi modelli avanzati, prova prima un prompt essenziale per vedere se il ragionamento integrato è sufficiente.</p><h4><strong>🚫 </strong>Few-Shot Prompting: utile o dannoso?</h4><p>Alcuni studi hanno dimostrato che il <strong>Few-Shot Prompting può peggiorare le prestazioni</strong> dei modelli di ragionamento. Ad esempio, o1-mini ha mostrato un calo significativo di accuratezza quando riceveva più di due esempi.</p><p><strong>👉 Consiglio:</strong> Se stai usando un modello di ragionamento, limita il numero di esempi o sperimenta con il formato del prompt.</p><h4><strong>✅ </strong>Chain-of-Thought: serve ancora?</h4><p>Il CoT (un prompt che indica al modello di fare un ragionamento prima di dare una risposta) può migliorare le risposte di modelli come GPT-4o, ma è <strong>meno efficace</strong> per i modelli di ragionamento, che tendono a generare autonomamente sequenze logiche.</p><p>Secondo PromptHub, il CoT migliora le prestazioni di GPT-4o nella programmazione, ma riduce l’accuratezza di o1-mini nel <strong>36,3% dei casi</strong>.</p><p><strong>👉 Consiglio:</strong> Usa il CoT solo se noti che il modello fornisce risposte incomplete o imprecise.</p><h4><strong>🚫 </strong>Ensembling: costoso e poco utile</h4><p>L’Ensembling, ovvero la combinazione di più risposte generate da modelli diversi, ha dimostrato <strong>miglioramenti minimi</strong> rispetto a un singolo prompt ben ottimizzato. Inoltre, richiede <strong>maggiori costi computazionali</strong>.</p><p><strong>👉 Consiglio:</strong> Se il tempo gioca a tuo sfavore, punta su un prompt ben strutturato piuttosto che su molteplici esecuzioni.</p><hr /><h2>Quando scegliere un modello di ragionamento rispetto a uno tradizionale?</h2><p>Non tutti i compiti richiedono modelli avanzati. Le ricerche suggeriscono che:</p><ul><li>Per compiti a <strong>bassa complessità</strong> (es. generazione di testo semplice), modelli classici come GPT-4o o Claude 3.5 <strong>sono sufficienti</strong>.</li><li>Per problemi <strong>con più di 5 passaggi logici</strong>, i modelli di ragionamento sono <strong>più efficaci</strong>.</li><li>Se il formato di output è rigido (es. codice, SQL), GPT-4o è spesso la scelta migliore per evitare errori di formattazione.</li></ul><p>Secondo un’analisi di PromptHub, <strong>o1-mini supera GPT-4o nei task complessi con un miglioramento medio del 16,67%</strong> quando la risposta contiene almeno 5 passaggi di ragionamento.</p><hr /><h2>Il Prompt Engineering è ancora utile?</h2><p>Sì, ma va adattato ai nuovi modelli. Il <strong>Zero-shot prompting è spesso la soluzione migliore</strong>, mentre tecniche come <strong>Few-shot e CoT </strong>sono sempre meno necessarie con i modelli di ragionamento. Se usati correttamente, questi modelli possono offrire prestazioni superiori con input essenziali, riducendo la necessità di prompt complessi. Si noti che, tuttavia, le tecniche di prompting sono numerose e ne esistono di più avanzate (per esempio, in <a href="https://intellygenza.ai/it/multi-expert-prompting-la-risposta-e-piu-bella-se-rispondere-sono-tanti">questo articolo</a> parliamo del Multi-Expert Prompting).</p><p>Per approfondire ulteriormente, consulta l'archivio di <a href="https://www.prompthub.us/blog/prompt-engineering-with-reasoning-models">PromptHub</a>.</p><hr /><h2> </h2></div> <span><span>Sari</span></span> <span><time datetime="2025-02-04T19:04:04+01:00" title="Martedì, Febbraio 4, 2025 - 19:04">Mar, 02/04/2025 - 19:04</time> </span> <div> <div class="item"> <a href="/it/abbiamo-ancora-bisogno-del-prompt-engineering" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/Prompt%20Ultra-Strutturato%20per%20Massimizzare%20la%20Risposta%20AI%20con%20Parametri%20Multidimensionali%20%282%29%20%282%29.jpg" alt="immagine_prompt" /> </a> </div></div> <span class="portfolio-tags " ><a href="/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/it/biblioteca" hreflang="it">Biblioteca</a></span> Tue, 04 Feb 2025 18:04:04 +0000 Sari 303 at https://www.intellygenza.com Cos'è l'AI4I, l'istituto italiano di Intelligenza Artificiale https://www.intellygenza.com/index.php/it/cose-lai4i-listituto-italiano-di-intelligenza-artificiale <span>Cos&#039;è l&#039;AI4I, l&#039;istituto italiano di Intelligenza Artificiale </span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>A maggio 2024 il governo italiano ha fondato l<strong>'AI4I </strong>(Artificial Intelligence for Industry).  Si tratta un progetto ambizioso che promette di essere un vero e proprio catalizzatore dell'innovazione tecnologica nazionale: molto di più un "semplice" istituto di ricerca.</p><hr /><h2>L'industria italiana si apre all'AI</h2><p>Con sede nel cuore di Torino, presso lo storico complesso <a href="https://ogrtorino.it/">OGR Tech Hub,</a> AI4I si distingue per un approccio unico che combina ricerca applicata, sviluppo tecnologico e innovazione industriale. L'istituto si concentra strategicamente su tre settori chiave - manifattura, automotive e aerospazio - con l'obiettivo di accelerare la trasformazione digitale del tessuto industriale italiano.</p><img src="/sites/default/files/inline-images/torino-getty%20%281%29.jpg" data-entity-uuid="3b5ddbdf-e7e2-4035-8127-943735dd1159" data-entity-type="file" alt="Torino" width="2666" height="2000" loading="lazy" /><h2>Un ecosistema integrato per l'innovazione</h2><p>Al centro della strategia di AI4I si trova un ecosistema integrato che unisce diverse componenti complementari. Il cuore pulsante dell'istituto sono le unità di Ricerca e Sviluppo, veri e propri laboratori dove l'innovazione prende forma. Qui, ricercatori e esperti lavorano su progetti all'avanguardia, supportati da un'infrastruttura computazionale di ultima generazione: l'<strong>AI Foundry</strong>.</p><p>Questa potente infrastruttura di calcolo non è solo un insieme di hardware sofisticati, ma un vero e proprio ambiente di sviluppo che include GPU avanzate e sistemi di storage ottimizzati per le applicazioni di intelligenza artificiale. </p><img src="/sites/default/files/inline-images/20230227115307_ogr---officine-grandi-riparazioni_1.jpg" data-entity-uuid="653f65e2-8edb-4e92-b117-ed8ffc7f45ca" data-entity-type="file" alt="OGR_Officinegrandiriparazioni" width="627" height="1600" loading="lazy" /><h2>Un ponte tra ricerca e industria</h2><p>Una delle innovazioni più importanti di AI4I è il <strong>System User Knowledge</strong> (SUK), una piattaforma  che funge da ponte tra il mondo della ricerca e quello dell'industria. Il sistema ha l'obiettivo di facilitare l'incontro tra chi cerca soluzioni innovative e chi può fornirle, e di creare quindi un marketplace dinamico di competenze e tecnologie.</p><h2>Formazione e talenti</h2><p>L'istituto non si limita alla ricerca e allo sviluppo, ma investe anche nella formazione attraverso la sua <strong>Academy</strong>. Qui, professionisti e manager possono accedere a programmi formativi d'eccellenza, pensati per costruire le competenze necessarie per guidare la trasformazione digitale delle imprese. I corsi, disponibili in diversi formati, combinano teoria e pratica, permettendo ai partecipanti di acquisire competenze immediatamente spendibili nel mondo del lavoro.</p><h2>L'ecosistema delle partnership</h2><p>Sotto la guida esperta di <a href="https://ai4i.it/the-institute/">Antonio Emilio Calegari,</a> manager con un background che combina fisica teorica e esperienza imprenditoriale, AI4I ha costruito una rete di partnership strategiche.  Tra i partner figurano l'<a href="https://www.iit.it/">IIT</a> (Italian Institute of Technology), che garantisce una solida base scientifica, e il consorzio interuniversitario <a href="https://www.cineca.it/it">CINECA</a>, che apre le porte all'AI Factory europea. La partnership con <a href="https://www.leonardo.com/it/home">Leonardo</a>, leader nell'industria aerospaziale, testimonia l'impegno dell'istituto nel portare l'innovazione nei settori strategici dell'industria italiana. Altrettanto importanti sono le collaborazioni con <a href="https://www.fondazionecrt.it/">Fondazione CRT</a>, <a href="https://ogrtorino.it/areas/ogr-tech">OGR Tech</a>, <a href="https://www.compagniadisanpaolo.it/it/">Fondazione Compagnia di San Paolo</a> e <a href="https://zestgroup.vc/it/blog/ai-accordo-triennale-tra-ai4i-e-zest-s-p-a">ZEST</a>, che rafforza il supporto alle startup innovative.</p><img src="/sites/default/files/inline-images/Foto-AEC-1-816x1024.jpg" data-entity-uuid="8af562e4-8f97-492d-a60b-c11ca9b47247" data-entity-type="file" alt="director_ai4i" width="459" height="1024" loading="lazy" /><p>Antonio Emilio Calegari, direttore dell'AI4I</p><h2>Il 2025</h2><p>L'istituto promette un cambio radicale ed un'accelerazione inedita nel modo in cui le aziende italiane implementano l'intelligenza artificiale, dalla grande industria alle PMI. Attraverso Startgarden, l'hub dedicato all'innovazione, nuove idee imprenditoriali troveranno terreno fertile per crescere e svilupparsi, beneficiando di mentorship, accesso a talenti e opportunità di finanziamento.</p><p>Il <a href="https://ai4i.it/timeline/">programma per il 2025</a> è tanto ambizioso quanto concreto. L'istituto sta completando la selezione dei responsabili delle unità R&amp;D e si prepara a lanciare nuovi programmi di ricerca che promettono di portare l'industria italiana verso nuovi orizzonti di innovazione.</p><hr /><p>L'<a href="https://ai4i.it/">AI4I</a> si pone  l'obiettivo di guidare la rinascita tecnologica italiana con una combinazione unica di ricerca avanzata, applicazioni pratiche e formazione specializzata.</p></div> <span><span>Sari</span></span> <span><time datetime="2025-01-31T01:40:39+01:00" title="Venerdì, Gennaio 31, 2025 - 01:40">Ven, 01/31/2025 - 01:40</time> </span> <div> <div class="item"> <a href="/it/cose-lai4i-listituto-italiano-di-intelligenza-artificiale" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/gp27161-1024x683.jpg%20%281%29.jpg" alt="Ogr_AI4I" /> </a> </div></div> <span class="portfolio-tags " ><a href="/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/it/biblioteca" hreflang="it">Biblioteca</a></span> Fri, 31 Jan 2025 00:40:39 +0000 Sari 299 at https://www.intellygenza.com Impara a programmare con o1 https://www.intellygenza.com/index.php/it/impara-programmare-con-o1 <span>Impara a programmare con o1</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p><a href="https://www.deeplearning.ai/">DeepLearning.AI</a>, in collaborazione con <a href="https://openai.com/">OpenAI</a>, ha pubblicato un nuovo breve corso chiamato "<a href="https://www.deeplearning.ai/short-courses/reasoning-with-o1/"><strong>Reasoning with o1</strong></a>", dedicato agli sviluppatori che desiderano approfondire le proprie conoscenze su questo modello di linguaggio.</p><hr /><h3>Cos'è o1 e perché è importante?</h3><p>Com'è noto,<strong> o1</strong> si distingue per le sue capacità di <strong>ragionamento astratto</strong>,<strong> </strong>grazie a cui può<strong> </strong>eseguire compiti complessi come programmare, analizzare testi e persino ragionare in ambiti specifici come il diritto o le materie STEM.</p><p>A differenza dei modelli tradizionali, <a href="https://www.intellygenza.ai/it/strawberry-e-finalmente-qui-e-si-chiama-o1">o1 </a>utilizza il "<strong>test-time compute</strong>" per migliorare le proprie prestazioni. In pratica, o1 impiega più tempo e risorse per analizzare un problema, scomponendolo in passaggi più piccoli e valutando diverse strategie prima di formulare una risposta. Questo approccio, noto come "<strong>chain-of-thought prompting</strong>", permette a o1 di ottenere risultati sorprendenti in termini di accuratezza e coerenza.</p><h2><a href="https://www.deeplearning.ai/short-courses/reasoning-with-o1/">Reasoning with o1</a></h2><p>Il corso "Reasoning with o1", tenuto da <a href="https://www.linkedin.com/in/colin-jarvis-50019658/?originalSubdomain=uk">Colin Jarvis</a>, Head of AI Solutions per OpenAI, disponibile gratuitamente su <a href="https://www.deeplearning.ai/">DeepLearning.AI</a> per un periodo limitato di tempo, è strutturato in <strong>8 lezioni</strong> e include <strong>6 esempi di codice</strong> per una durata complessiva di circa 1 ora e 10 minuti. Il corso è essere utile per imparare a:</p><ul><li><strong>Riconoscere i compiti per i quali o1 è più adatto</strong>, e quando è preferibile utilizzare modelli più piccoli e veloci.</li><li><strong>Padroneggiare le tecniche di prompting</strong> per ottenere il massimo da o1, sperimentando diversi approcci per valutarne l'efficacia. A tal fine, puoi anche consultare la nostra <a href="https://www.intellygenza.ai/it/guida-galattica-al-prompt-perfetto">Guida galattica al prompt perfetto</a> e la tecnica del <a href="https://www.intellygenza.ai/it/multi-expert-prompting-la-risposta-e-piu-bella-se-rispondere-sono-tanti">multi-expert prompting</a>.</li><li><strong>Eseguire compiti complessi</strong>, in cui o1 funge da "orchestratore" creando un piano e delegando l'esecuzione al modello 4o-mini, bilanciando intelligenza e costi.</li><li><strong>Programmare</strong>, sviluppando nuove applicazioni, modificando codici esistenti e testando le prestazioni in una competizione tra o1-mini e GPT-4o.</li><li><strong>Applicare o1 all'analisi delle immagini</strong>, scoprendo come il modello sfrutta una gerarchia di ragionamento per elaborare informazioni visive complesse.</li><li><strong>Conoscere la tecnica del meta-prompting</strong>, che utilizza o1 per migliorare la qualità dei prompt e ottimizzare le prestazioni del modello.</li></ul><h4>A chi è rivolto il corso?</h4><p>Il corso "Ragionamento con o1" è pensato per chi ha già una <strong>conoscenza base-media dell'intelligenza artificiale</strong>, familiarità con il linguaggio Python e una comprensione di base dei concetti di LLM prompting e sviluppo di applicazioni LLM. Se parti da zero, puoi studiare i fondamenti dell'intelligenza artificiale iniziando da <a href="https://www.intellygenza.ai/it/ai-fundamentals-formazione-sullai-costo-zero">qui</a>.</p></div> <span><span>Sari</span></span> <span><time datetime="2024-12-19T22:35:20+01:00" title="Giovedì, Dicembre 19, 2024 - 22:35">Gio, 12/19/2024 - 22:35</time> </span> <div> <div class="item"> <a href="/it/impara-programmare-con-o1" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/rb_8193.png" alt="programmazione" /> </a> </div></div> <span class="portfolio-tags " ><a href="/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/it/biblioteca" hreflang="it">Biblioteca</a></span> Thu, 19 Dec 2024 21:35:20 +0000 Sari 285 at https://www.intellygenza.com L'AI negli ospedali potrebbe essere un problema https://www.intellygenza.com/index.php/it/lai-negli-ospedali-potrebbe-essere-un-problema <span>L&#039;AI negli ospedali potrebbe essere un problema</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><h2>Qualcosa di nuovo sul fronte artificiale: l'altro lato dell'AI</h2><p>L'AI continua ad invadere gli ospedali (per ora, soprattuto quelli americani). Non è certamente una novità, dal momento che la medicina e il settore sanitario in generale sono stati tra i primi campi di applicazione dell'AI, ancora prima del boom generativo (ne abbiamo parlato <a href="https://www.intellygenza.ai/it/come-lai-puo-aiutare-medici-e-ospedali">qui </a>e <a href="https://www.intellygenza.ai/it/lai-prevede-le-origini-tumorali-meglio-dei-medici">qui</a>). Tuttavia, sembra che sempre più esperti e professionisti stiano iniziando a rivalutare l'impatto dell'AI negli ospedali, e a sollevare dubbi sui suoi presunti effetti benefici. </p><p>In particolare, <strong>Michael Kennedy</strong>, un infermiere di terapia intensiva neurologica a San Diego, ha condiviso le sue preoccupazioni sull'impatto dell'intelligenza artificiale sulla professione infermieristica in un'intervista con <a href="https://www.codastory.com/stayonthestory/nursing-ai-hospitals-robots-capture/">Coda Story</a>, un'organizzazione di giornalismo investigativo.</p><hr /><p>Di seguito la sua storia, riportata integralmente in <strong>italiano</strong>:</p><p>"Sono un infermiere di terapia intensiva neurologica. L'evoluzione dell'intelligenza artificiale nei nostri ospedali mi terrorizza.</p><p>Ogni mattina, intorno alle 6:30, prendo il tram per andare dal centro di San Diego fino all'ospedale dove lavoro, a La Jolla. La California meridionale non è famosa per il suo sistema di mezzi pubblici, ma io sono uno di quei pazzi che lo usa - ed è una meraviglia. Sono veloci, comodi, non devo pagare il parcheggio: fantastico. Un turno normale dura 12 ore, che diventano 13 dopo aver completato i referti e le registrazioni, quindi si sta a lavoro per molto tempo.</p><p>La maggior parte delle volte non mi aspetto di andare a lavoro e trovarmi di fronte a una catastrofe - certo, a volte capita, ma di solito è un lavoro normale, in cui si fanno cose di routine.</p><p>Lavoro nel reparto di terapia intensiva neurologica. La maggior parte dei nostri pazienti ha appena subito un intervento neurochirurgico per tumori o ictus. Tendenzialmente, quindi, non è un posto felice. Ci sono molte persone che devono reimparare abilità di base - come tenere una matita o camminare - con lunghi percorsi di riabilitazione. Dopo un trauma cerebrale si perdono spesso queste capacità, e recuperarle è un processo lungo. Vediamo i pazienti nel loro momento peggiore, e non riusciamo a vederne i progressi. Se siamo fortunati, forse, mesi dopo veniamo a sapere che sono riusciti a riprendersi pienamente. È un ambiente in cui la gratificazione non è per niente immediata.</p><p>Come infermiere, finisci per fare molto affidamento sull'intuito: anche solo il modo in cui un paziente dice qualcosa, o semplicemente il suo aspetto, possono suonare più di un campanello d'allarme. Non credo sia qualcosa che le macchine possano fare - eppure, negli ultimi anni, abbiamo visto sempre più sistemi di intelligenza artificiale intrufolarsi nei nostri ospedali.</p><p>Arrivo al lavoro alle 7. Dall'esterno, l'ospedale sembra futuristico: è un grattacielo tutto vetro e linee curve. Ha vinto una serie di premi di architettura. La struttura è stata finanziata da Irwin Jacobs, miliardario proprietario di Qualcomm, una grande azienda tecnologica di San Diego. Credo che il fatto che l'ospedale sia di proprietà di un leader di settore abbia molto a che fare con il modo in cui i dirigenti si approcciano alle nuove tecnologie.</p><p>Infatti, sono sempre alla ricerca dell'avanguardia ad ogni costo. E quando esce qualcosa di nuovo, vi si buttano a capofitto. Credo che sia per questo che abbiano puntato cosi tanto all'AI.</p><p>Non la chiamavamo AI all'inizio. La prima cosa che è successa è che queste nuove innovazioni si sono semplicemente infiltrate nel nostro sistema di cartelle cliniche elettroniche. Erano strumenti che monitoravano che specifici passaggi nel trattamento del paziente venissero seguiti. Se qualcosa fosse stato tralasciato o non fosse stato fatto, l'AI avrebbe mandato un avviso. Era molto rudimentale, e serviva ad evitare che i pazienti venissero lasciati indietro o trascurati.</p><p>Poi, nel 2018, l'ospedale ha acquistato un nuovo programma da Epic, l'azienda fornitrice del sistema di cartelle cliniche elettroniche. Prevedeva un parametro chiamato "gravità del paziente" - fondamentalmente il carico di lavoro che ogni paziente richiede per essere curato. È una misurazione molto importante, usata in ambito infermieristico per determinare quanto è malato un paziente e di quante risorse avrà bisogno. Al livello più basilare, classificavamo i pazienti come a bassa, media o alta intensità di cura. Prima che arrivasse l'AI, rispondevamo noi stessi a un questionario che chiedeva cose tipo: quanti farmaci ha il paziente? Sono farmaci per via endovenosa? Sono farmaci triturati? Ha un accesso venoso centrale o periferico? Roba del genere.</p><p>Questo determinava se un paziente era a bassa, media o alta intensità. E organizzavamo il personale di conseguenza. Se avevi molti pazienti ad alta intensità, avevi bisogno di più personale. Se avevi principalmente pazienti a bassa intensità, potevi permetterti meno personale.</p><p>Prima, rispondevamo noi a queste domande e ci sentivamo in controllo. Ci sentivamo come se avessimo voce in capitolo. Ma un giorno, questo ci è stato tolto. Invece, hanno comprato questo programma guidato dall'AI senza informare i sindacati, gli infermieri o i rappresentanti. Hanno semplicemente iniziato a usarlo e hanno inviato una email dicendo: "Ehi, adesso usiamo questo qui".</p><p>Il nuovo programma usava l'AI per attingere alle note e cartelle del paziente, e poi assegnava loro un punteggio speciale. Funzionava semplicemente in background all'interno dell'ospedale.</p><p>Il problema era che non avevamo idea da dove venissero questi dati. Sembrava magia, ma non in senso positivo. Sputava fuori un numero, tipo 240, ma non sapevamo cosa significasse. Non c'erano limiti chiari per bassa, media o alta intensità, rendendo di fatto il punteggio inutile.</p><p>Il risultato è stato che ci hanno tolto la possibilità di difendere i pazienti. Non potevamo più puntare a un punteggio e dire "Questo paziente è troppo malato, devo concentrarmi solo su di lui", perché i numeri non ci aiutavano più a prendere quella decisione.</p><p>Avevamo la sensazione che il sistema fosse progettato per togliere il potere decisionale agli infermieri. Negarci il potere di dire di quanta assistenza abbiamo bisogno.</p><p>Quello è stato il primo problema.</p><p>Poi, all'inizio di quest'anno, l'ospedale ha ricevuto una donazione enorme dalla famiglia Jacobs, e hanno assunto un responsabile AI. Quando lo abbiamo saputo, i nostri campanelli di allarme sono suonati - "Stanno puntando tutto sull'AI", ci siamo detti. Abbiamo saputo di questa tecnologia chiamata Scribe, una cosiddetta "Documentazione Ambientale". Hanno annunciato che l'avrebbero testata sui medici del nostro ospedale.</p><p>Fondamentalmente, Scribe registra il tuo incontro con il paziente; è come ChatGPT o un grande modello linguistico: registra tutto e compila automaticamente un report. O i tuoi documenti.</p><p>C'erano ovvie preoccupazioni su tutto questo. La numero uno è: "Dio, tutto ciò è sorveglianza di massa. Ascolteranno tutto quello che dicono i nostri pazienti, tutto quello che facciamo. Mi staranno spiando."</p><p>Non è la prima volta che provano a tenere sotto controllo gli infermieri. Il mio ospedale non l'ha fatto, ma ci sono ospedali in giro per gli Stati Uniti che usano tag di localizzazione per monitorare quante volte entri in una stanza, per assicurarsi che tu stia rispettando queste metriche. È come se non si fidassero di noi, come se non ci prendessimo davvero cura dei nostri pazienti.</p><p>Abbiamo distribuito volantini ai nostri colleghi per provare a informarli su cosa significhi davvero questa "Documentazione Ambientale". Abbiamo chiesto un incontro con il responsabile AI. Ha minimizzato ogni problema, dicendo: "No, no, no, vi ascoltiamo. Siamo dalla vostra parte. Stiamo iniziando, è solo un test." Molti di noi hanno alzato gli occhi al cielo.</p><p>Ha detto che stavano adottando il programma a causa del burnout dei medici. È vero, la documentazione è uno degli aspetti più noiosi del lavoro di un medico, e la odiano.</p><p>L'AI entra negli ospedali per monitorare i pazienti perché dovrebbe rendere la nostra vita più facile, ma nella mia esperienza, la tecnologia nell'assistenza sanitaria migliora le cose molto raramente . Di solito serve solo ad accelerare la catena di montaggio, a spremerci di più, in modo tale da poter assumere meno personale.</p><p>"Efficienza" è una parola d'ordine nella Silicon Valley, ma levatevela dalla testa quando si parla di assistenza sanitaria. Quando ottimizzi per l'efficienza, stai eliminando l'abbondanza. Ma quando sono in gioco le vite dei pazienti, vuoi avere abbondanza nel sistema. Vuoi avere più di un paio di occhi fisso su un paziente in ospedale.</p><p>Quando cerchi di ridurre tutto ad una macchina su cui una sola persona si affida per prendere decisioni, allora c'è solo un paio di occhi su quel paziente. Questo può essere efficiente, ma creando efficienza, stai anche creando molti potenziali rischi. Quindi l'efficienza non è così efficiente come pensano i potenti.</p><p>In un mondo ideale, credono che la tecnologia possa spazzare via i compiti noiosi, permettendoci di concentrarci sugli incontri con i pazienti invece di passare il nostro tempo dietro a un computer.</p><p>Ma chi pensa veramente che registrare tutto quello che dice un paziente e immagazzinarlo su un server di terze parti sia una buona idea? È pazzesco. Avrei bisogno di garanzie che il sistema sia al 100% sicuro - anche se in realtà nulla lo è mai. Tutti vorremmo essere liberati dagli obblighi di documentazione e poter essere più presenti con i nostri pazienti.</p><p>C'è un modo giusto per fare ciò. L'AI non è inevitabile, ma ci è piombata addosso in fretta. Un giorno ChatGPT era una novità, e ora tutto è AI. Ne siamo sommersi.</p><p>L'altra cosa che è esplosa nei nostri ospedali negli ultimi anni sono i sistemi di allerta guidati dall'IA. Si tratta di avvisi continui che si assicurano che abbiamo fatto certe cose - come controllato la sepsi, ad esempio. Di solito non sono molto utili, o non arrivano nel momento giusto. L'obiettivo è evitare che i pazienti vengano trascurati dal sistema sanitario - uno scenario terribile nel nostro settore. Ma non credo che stia funzionando come previsto.</p><p>Non credo che l'obiettivo sia davvero quello di fornire una rete di sicurezza per tutti - credo che sia in realtà quello di accelerarci, in modo da poter vedere più pazienti, ridurre le visite da 15 a 12 e poi a 10 minuti. Efficienza, di nuovo.</p><p>Credo che l'obiettivo sia che questi avvisi finiscano per prendere il sopravvento sull'assistenza sanitaria. Per dirci come fare il nostro lavoro invece che far spendere soldi agli ospedali per formare gli infermieri e fargli sviluppare capacità di pensiero critico, esperienza e intuito. Quindi diventeremmo fondamentalmente solo operatori di macchine.</p><p>Come infermiere esperto, ho imparato a riconoscere schemi e ad anticipare potenziali risultati in base a quello che vedo. I nuovi infermieri non hanno ancora quell'intuito o quell'abilità di previsione; sviluppare il pensiero critico fa parte della loro formazione. Quando sperimentano situazioni diverse, iniziano a capire quell'intuizione istintivamente.</p><p>In futuro, con l'AI e gli avvisi che li tartassano tutto il giorno ricordandogli come fare il loro lavoro, le nuove leve di infermieri potrebbero non sviluppare la stessa intuizione. Il pensiero critico sta per essere delegato altrove - alla macchina. Credo che i leader immaginino un mondo in cui possono decifrare il codice delle malattie umane e automatizzare tutto in base agli algoritmi. Ci vedono semplicemente come macchine da decifrare.</p><p><em>Fonte: </em><a href="https://www.codastory.com/stayonthestory/nursing-ai-hospitals-robots-capture/"><em>Coda Story, "I'm a neurology ICU nurse. The creep of AI in our hospitals terrifies me"</em></a></p></div> <span><span>Sari</span></span> <span><time datetime="2024-11-13T17:26:23+01:00" title="Mercoledì, Novembre 13, 2024 - 17:26">Mer, 11/13/2024 - 17:26</time> </span> <div> <div class="item"> <a href="/index.php/it/lai-negli-ospedali-potrebbe-essere-un-problema" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/freepik__expand__76598%20%281%29.png" alt="infermiere preoccupato" /> </a> </div></div> <span class="portfolio-tags " ><a href="/index.php/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/index.php/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/index.php/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/index.php/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/index.php/it/biblioteca" hreflang="it">Biblioteca</a></span> Wed, 13 Nov 2024 16:26:23 +0000 Sari 278 at https://www.intellygenza.com Multi-expert Prompting: la risposta è più bella se a rispondere sono tanti https://www.intellygenza.com/index.php/it/multi-expert-prompting-la-risposta-e-piu-bella-se-rispondere-sono-tanti <span>Multi-expert Prompting: la risposta è più bella se a rispondere sono tanti</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>Dopo la fortunata <a href="https://www.intellygenza.ai/it/guida-galattica-al-prompt-perfetto">Guida galattica al prompt perfetto</a>, abbiamo deciso di approfondire il grande tema del <strong>prompting </strong>presentando il <em>Multi-expert Prompting</em>, un nuovo e promettente metodo per ottenere risposte sempre più complete e accurate. Con questa tecnica, i modelli di linguaggio non si limitano a rispondere con una sola voce, ma simulano un’interazione tra esperti che trattano l'argomento da prospettive diverse . Una vera svolta per chi cerca risposte ben ponderate e senza distorsioni. <br /><br />Le informazioni contenute nel presente articolo sono interamente estratte dal recente paper scientifico che introduce il nuovo approccio multi-laterale. <a href="https://arxiv.org/abs/2411.00492">Qui</a> il link al paper.</p><hr /><h2>Cos’è il Multi-expert Prompting e come funziona</h2><p>L’idea alla base del <strong>Multi-expert Prompting</strong> è piuttosto semplice: anziché produrre una risposta da un'unica prospettiva (il cosiddetto <strong>Expert Prompting</strong>, "agisci/rispondi come..."), il modello risponde assumendo il punto di vista di più “esperti” con competenze diverse. In questo modo, l'output finale ingloberà le risposte di tutti gli esperti, proponendone una sintesi.  Questo significa che a una domanda come “Quali sono le conseguenze del cambiamento climatico?”, non avremo solo una risposta generica, ma prospettive da un punto di vista <strong>ambientale</strong>, <strong>economico</strong> e <strong>sociale</strong>.</p><p>Per esempio, un epidemiologo potrebbe dare un parere sull’impatto sanitario dei cambiamenti climatici, mentre un economista potrebbe discutere dei costi economici e un ecologo sugli effetti sulla biodiversità. Il modello combina quindi le risposte di questi esperti per dare una visione a 360 gradi dell’argomento.</p><img alt="paper_multiexpert prompting" data-entity-type="file" data-entity-uuid="b5d030ea-b9b7-4d6f-9080-aa04a6221a33" src="/sites/default/files/inline-images/GbgyDxGasAA9pQH.jpeg" width="2647" height="1858" loading="lazy" />Una panoramica del Multi-expert Prompting, Do et al (2024)<p>Ecco come funziona: nel <strong>prompt iniziale</strong>, l’utente chiede all’LLM di immaginare una serie di identità di esperti, ciascuna con una prospettiva specifica (ad esempio, uno scienziato, un medico, un ingegnere, ecc) e di rispondere a turno ad un dato quesito come farebbe ciascuno di questi esperti. L'LLM produce quindi una risposta per ogni identità simulata. Infine, un altro prompt chiede al modello di aggregare tutte queste risposte, scegliendo le informazioni più utili e conciliando eventuali contrasti.</p><h2>I vantaggi del Multi-expert Prompting</h2><p>Uno dei vantaggi principali del Multi-expert Prompting è il miglioramento della <strong>veridicità</strong> delle risposte, come confermato dallo studio che ha introdotto questa tecnica. Coinvolgere più “esperti” permette al modello di produrre risposte che risultano più "vicine alla verità": la combinazione di più risposte può aiutare a identificare e correggere eventuali errori o disinformazioni, portando a risposte più veritiere. <br /><br />Un altro vantaggio è la <strong>completezza</strong>: l'aggregazione di diverse opinioni, esperienze e competenze porta ad una visione più ampia e sfaccettata dell'argomento in questione. Questo significa risposte più complete e accurate, soprattutto per domande complesse. <br /><br />Il Multi-expert Prompting riduce significativamente anche i <strong>bias</strong>. Poiché ognuno degli “esperti” virtuali contribuisce con un'opinione unica, il modello bilancia eventuali tendenze di parte, fornendo una risposta più equilibrata.</p><hr /><h3>ESEMPIO: "Il lavoro da remoto è realmente efficace?"</h3><h6>Expert Prompting:<br /> </h6><img alt="claude 3.5 expert prompting" data-entity-type="file" data-entity-uuid="2cbddeeb-f029-4d5b-911f-2510585af96e" src="/sites/default/files/inline-images/image.png" width="785" height="673" loading="lazy" />Claude 3.5 risponde alla domanda dell'esempio (Expert Prompting)<p><strong>Multi Expert-Prompting</strong></p><img alt="Claude 3.5 risponde alla domanda dell'esempio (Multi-Expert Prompting)" data-entity-type="file" data-entity-uuid="d60f6385-e92f-461a-8c1e-24aa529bd99d" src="/sites/default/files/inline-images/Progetto%20senza%20titolo%20%281%29%20%281%29.png" width="3840" height="1432" loading="lazy" />Claude 3.5 risponde alla domanda dell'esempio (Multi-Expert Prompting)<p> </p><p> </p></div> <span><span>Sari</span></span> <span><time datetime="2024-11-08T13:38:48+01:00" title="Venerdì, Novembre 8, 2024 - 13:38">Ven, 11/08/2024 - 13:38</time> </span> <div> <div class="item"> <a href="/index.php/it/multi-expert-prompting-la-risposta-e-piu-bella-se-rispondere-sono-tanti" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/people-collage-design.jpg" alt="tanti professionisti" /> </a> </div></div> <span class="portfolio-tags " ><a href="/index.php/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/index.php/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/index.php/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/index.php/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/index.php/it/biblioteca" hreflang="it">Biblioteca</a></span> Fri, 08 Nov 2024 12:38:48 +0000 Sari 276 at https://www.intellygenza.com La definizione ufficiale di "AI open source" https://www.intellygenza.com/index.php/it/la-definizione-ufficiale-di-ai-open-source <span>La definizione ufficiale di &quot;AI open source&quot;</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>L'<a href="https://www.google.com/search?q=Open+Source+Initiative&amp;oq=Open+Source+Initiative&amp;gs_lcrp=EgZjaHJvbWUyBggAEEUYOTIGCAEQRRhA0gEHNjI2ajBqN6gCALACAA&amp;sourceid=chrome&amp;ie=UTF-8">Open Source Initiative</a> ha rilasciato una nuova definizione standard per determinare se un modello di intelligenza artificiale sia davvero open source.</p><hr /><p>Dopo anni di discussioni e collaborazioni interne al settore, l<a href="https://it.wikipedia.org/wiki/Open_Source_Initiative">'Open Source Initiative</a> (OSI), un'organizzazione dedicata a promuovere software open source, ha finalmente pubblicato la cosiddetta <a href="https://opensource.org/ai/open-source-ai-definition">Open Source AI Definition</a> (OSAID). Questa definizione mira a creare uno standard condiviso su cosa rende un modello di intelligenza artificiale effettivamente open source - e su cosa no (spoiler: molti dei modelli generalmente considerati open source potrebbero non esserlo secondo la nuova definizione). Un passo importante per regolamentare un settore sempre più centrale ma ancora in via di definizione."</p><h2>Cosa rende un'AI "open source" secondo l'OSI</h2><p>Secondo la nuova definizione OSAID, perché un modello di intelligenza artificiale possa essere considerato open source, deve soddisfare una serie di requisiti chiave:</p><ul><li><strong>Trasparenza del Modello</strong>: il modello deve fornire informazioni sufficienti sulla sua architettura e il suo funzionamento in modo che chiunque possa ricrearla in maniera sostanziale.</li><li><strong>Divulgazione dei Dati di Addestramento</strong>: il modello deve rivelare dettagli sui dati utilizzati per il suo addestramento, inclusa la provenienza, il processo di elaborazione e le modalità di accesso o licenza.</li><li><strong>Diritti di Utilizzo</strong>: gli sviluppatori devono poter utilizzare, modificare e costruire su questo modello open source senza dover chiedere alcun permesso.</li></ul><p>"Un'AI open source è un modello che ti permette di comprendere a fondo come è stato costruito", spiega <a href="https://www.linkedin.com/in/maffulli/">Stefano Maffulli</a>, vicepresidente esecutivo dell'OSI. "Questo significa avere accesso a tutti i componenti, come il codice completo utilizzato per l'addestramento e la filtrazione dei dati".</p><h3>Perché una definizione condivisa è importante</h3><p>La motivazione principale dietro la creazione della OSAID è quella di allineare regolatori, sviluppatori e aziende su cosa significhi davvero "open source" nel campo dell'intelligenza artificiale.</p><p>"I regolatori stanno già tenendo d'occhio questo campo", afferma Maffulli, riferendosi a iniziative come quelle della Commissione Europea che mirano a riconoscere e promuovere l'AI open source. "Abbiamo fatto un'opera di sensibilizzazione esplicita verso un insieme diversificato di portatori di interesse e comunità - non solo i soliti sospetti della tecnologia. Abbiamo persino cercato di raggiungere le organizzazioni che più spesso si rivolgono ai regolatori per ottenerne un feedback preliminare"</p><h3>La questione delle AI dalle sorgenti non così "aperte"</h3><p>Uno dei principali motivi che ha spinto l'OSI a creare questa definizione è il proliferare di aziende che utilizzano il termine "open source" per descrivere i propri modelli AI, pur non rispettandone i criteri. Diverse realtà come Meta, Stability AI e Google hanno infatti etichettato come "open source" modelli che in realtà non lo sono. <br /><br />Ad esempio, <strong>Meta </strong>richiede una speciale licenza per l'utilizzo dei suoi modelli Llama da parte di piattaforme con più di 700 milioni di utenti attivi mensili. Stability AI e Mistral hanno a loro volta introdotto limitazioni sull'utilizzo commerciale di alcuni loro modelli.</p><p>"La nostra speranza è che quando qualcuno cercherà di abusare del termine, la comunità AI dirà 'Non riconosciamo questo modello come open source' e la cosa verrà corretta", spiega Maffulli. Anche se l'OSI non ha meccanismi di applicazione, questa pressione sociale potrebbe avere un certo effetto." <br /><br />Con l'OSAID, l'OSI mira a fornire uno standard chiaro e condiviso su cosa significhi "open source" nel campo dell'intelligenza artificiale. Uno standard essenziale per promuovere modelli AI accessibili ed evitare abusi del termine da parte di aziende che vogliono sfruttarne i vantaggi marketing senza rispettarne davvero lo spirito. </p><hr /><p>Fonti e approfondimenti:<br /><br /><a href="https://www.theverge.com/2024/10/28/24281820/open-source-initiative-definition-artificial-intelligence-meta-llama">The Verge</a><br /><a href="">Tech Crunch</a><br /><a href="https://opensource.org/ai/open-source-ai-definition">OSI</a></p></div> <span><span>Sari</span></span> <span><time datetime="2024-10-29T15:53:59+01:00" title="Martedì, Ottobre 29, 2024 - 15:53">Mar, 10/29/2024 - 15:53</time> </span> <div> <div class="item"> <a href="/index.php/it/la-definizione-ufficiale-di-ai-open-source" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/an-illustration-of-a-natural-landscape-representin--oTc4tpmRzqZZB5bt_UbWw-erXRGkaOTN2WS0zzHLR_7g.jpeg" alt="a river in open nature" /> </a> </div></div> <span class="portfolio-tags " ><a href="/index.php/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/index.php/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/index.php/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/index.php/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/index.php/it/biblioteca" hreflang="it">Biblioteca</a></span> Tue, 29 Oct 2024 14:53:59 +0000 Sari 270 at https://www.intellygenza.com Guida galattica al prompt perfetto https://www.intellygenza.com/index.php/it/guida-galattica-al-prompt-perfetto <span>Guida galattica al prompt perfetto</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>Ti sei mai chiesto perché alcune richieste all'AI funzionano alla perfezione mentre altre producono risultati deludenti? La risposta sta nel <strong>prompt engineering</strong>, l'arte e la scienza di comunicare efficacemente con l'intelligenza artificiale.</p><p>In questa guida pratica, scoprirai i framework professionali e le tecniche collaudate per creare prompt che generano esattamente i risultati che desideri. Dalle basi della strutturazione agli esempi pratici di business e personali, ti guideremo passo dopo passo nel mondo del prompt engineering efficace.<br /><br /><em>Questo articolo è basato sulla guida "</em><a href="https://medium.com/the-generator/the-perfect-prompt-prompt-engineering-cheat-sheet-d0b9c62a2bba"><em>The Perfect Prompt: A Prompt Engineering Cheat Sheet</em></a><em>" di Maximilian Vogel, pubblicata su Medium ad aprile 2024 e aggiornata ad agosto 2024. Vogel, esperto di machine learning e AI generativa, ha creato questa guida completa basandosi sulla sua esperienza nel campo e sulla collaborazione con altri esperti del settore. L'obiettivo del presente articolo è quello di rendere il contenuto fruibile al pubblico italiano.</em></p><hr /><h2>Cosa rende un prompt perfetto: le basi</h2><p>Prima di addentrarci nei framework specifici, è essenziale comprendere che un prompt efficace non è una semplice domanda o richiesta. È una <strong>comunicazione strutturata</strong> che guida l'AI verso il risultato desiderato.</p><p>I principi chiave di un prompt efficace sono:</p><ul><li><strong>Chiarezza</strong>: istruzioni precise e non ambigue</li><li><strong>Struttura</strong>: organizzazione logica delle informazioni</li><li><strong>Contestualizzazione</strong>: fornire il background necessario</li><li><strong>Specificità</strong>: dettagliare il formato e lo stile desiderati</li></ul><p>Chiariti questi punti di base, esistono due approcci - o "framework" - per la creazione di prompt per i modelli linguistici di grandi dimensioni (LLM): AUTOMAT e CO-STAR. Entrambi i framework sono due acronimi e mirano a fornire una struttura per la creazione di prompt chiari e concisi che guidino l'LLM verso il risultato desiderato.</p><h2>Il framework AUTOMAT: struttura per prompt perfetti</h2><p>AUTOMAT è un framework completo che ti guida nella creazione di prompt professionali. Vediamo ogni componente nel dettaglio:</p><h4>Act as a... : definire il ruolo dell'AI</h4><p>Questa componente definisce il "ruolo" che l'AI deve assumere: "a<em>gisci come un esperto data analyst con 10 anni di esperienza nei mercati finanziari</em>"</p><h4>User persona &amp; audience: chi è il destinatario?</h4><p>Definisce per chi è pensata la risposta: "<em>la spiegazione dovrebbe essere adatta agli analisti finanziari junior con conoscenze statistiche di base"</em></p><h4>Targeted action: quale risultato vuoi ottenere?</h4><p>Specifica l'obiettivo concreto del prompt: <em>"Analizzare i dati di mercato forniti e creare una sintesi che metta in evidenza tre tendenze chiave, con i relativi punti di riferimento"</em></p><h4>Output definition: come deve essere la risposta</h4><p>Definisce il formato e la struttura della risposta desiderata: <em>"Fornite l'analisi in punti elenco, con ogni tendenza supportata da numeri specifici. Includere un breve paragrafo di conclusione"</em></p><h3>Mode/tonality/style: il tono della comunicazione</h3><p>Stabilisce il tono e lo stile della risposta:<em> "Utilizzare un tono professionale ma accessibile, evitando un eccessivo gergo tecnico"</em></p><h3>Atypical cases: gestire le eccezioni</h3><p>Indica come gestire casi particolari o eccezioni: <em>"Se mancano i dati per una qualsiasi metrica, dichiararlo esplicitamente e fornire approfondimenti alternativi"</em></p><h3>Topic whitelisting: definire i confini</h3><p>Specifica gli argomenti da includere o escludere: <em>"Concentrati solo sui trend di mercato relativi ai titoli tecnologici e ai settori delle energie rinnovabili"</em></p><hr /><h2>Il framework CO-STAR: un'alternativa flessibile</h2><p><strong>CO-STAR</strong> offre un approccio alternativo al framework AUTOMAT, particolarmente efficace per compiti di comunicazione e scrittura. L'acronimo sta per Contesto; Obiettivo; Stile e tono; Pubblico (audience); Risposta.</p><p><strong>Esempio</strong>:</p><p>Contesto: Lancio di un nuovo prodotto software B2B <br />Obiettivo: Generare interesse e prenotazioni per una demo <br />Stile e tono: Professionale ma colloquiale <br />Target: CTO e responsabili IT di aziende di medie dimensioni <br />Risposta: Email di 200 parole con call-to-action<br /> </p><hr /><h2>Esempi Pratici di Prompt Engineering</h2><h3>Caso business: analisi automatica dei documenti</h3><p><strong>Scenario</strong>: Automatizzare l'analisi di report finanziari trimestrali</p><p>Ruolo: agisci come un analista finanziario con esperienza nell'analisi dei rapporti trimestrali. <br />Persona utente: Creare sintesi per dirigenti di livello C <br />Azione: Estrarre e analizzare le metriche finanziarie chiave <br />Output: JSON strutturato con metriche chiave e analisi dei trend <br />Modalità: Professionale e conciso <br />Casi atipici: Segnalare qualsiasi variazione insolita <br />Whitelisting degli argomenti: Focus su ricavi, profitti e metriche di crescita</p><h3>Caso Personale: assistenza nella scrittura</h3><p><strong>Scenario</strong>: Creare un post per LinkedIn<br /><br />Contesto: Professionista che cerca di condividere approfondimenti sul settore <br />Obiettivo: Scrivere un post coinvolgente su LinkedIn sulle tendenze dell'AI <br />Stile: Professionale ma colloquiale <br />Target: Professionisti del settore tecnologico <br />Risposta: Post di 200 parole con hashtag rilevanti</p><h3>Caso Business: assistenza cliente automatizzata</h3><p><strong>Scenario</strong>: Chatbot per supporto tecnico</p><p>Ruolo: Agire come specialista dell'assistenza tecnica <br />User Persona: Clienti con conoscenze tecniche di base <br />Azione: Risolvere i problemi software più comuni <br />Output: Guide alla soluzione passo-passo <br />Modalità: Paziente e disponibile <br />Casi atipici: Percorso di escalation per problemi complessi <br />Whitelisting degli argomenti: Risoluzione dei problemi di base, problemi di account</p><hr /><h2>Best practices ed errori comuni</h2><h3>Best practices:</h3><ul><li><strong>Sii specifico</strong>: Più dettagli fornisci, migliori saranno i risultati</li><li><strong>Usa esempi</strong>: Il few-shot learning migliora significativamente le risposte</li><li><strong>Struttura gerarchica</strong>: Organizza le informazioni in modo logico</li><li><strong>Verifica e migliora</strong>: Raffina i prompt basandoti sui risultati</li></ul><h3>Errori da evitare:</h3><ul><li><strong>Ambiguità</strong>: Istruzioni vaghe o poco chiare</li><li><strong>Sovraccarico</strong>: Troppi requisiti in un singolo prompt</li><li><strong>Mancanza di contesto</strong>: Non fornire informazioni di background sufficienti</li><li><strong>Formato indefinito</strong>: Non specificare il formato della risposta desiderata</li></ul><hr /><p>Il prompt engineering è una competenza fondamentale nell'era dell'AI. I framework AUTOMAT e CO-STAR forniscono strutture solide per creare prompt efficaci, ma la vera maestria viene con la pratica. Prova, sperimenta e sbizzarrisciti. E ricorda di condividere i tuoi prompt sui nostri social!</p></div> <span><span>Sari</span></span> <span><time datetime="2024-10-29T10:50:30+01:00" title="Martedì, Ottobre 29, 2024 - 10:50">Mar, 10/29/2024 - 10:50</time> </span> <div> <div class="item"> <a href="/index.php/it/guida-galattica-al-prompt-perfetto" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/openai%20orion.jpg" alt="Guida_prompt_perfetto" /> </a> </div></div> <span class="portfolio-tags " ><a href="/index.php/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/index.php/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/index.php/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/index.php/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/index.php/it/biblioteca" hreflang="it">Biblioteca</a></span> Tue, 29 Oct 2024 09:50:30 +0000 Sari 269 at https://www.intellygenza.com NotebookLM: l'incredibile AI di Google che genera podcast https://www.intellygenza.com/index.php/it/notebooklm-lincredibile-ai-di-google-che-genera-podcast <span>NotebookLM: l&#039;incredibile AI di Google che genera podcast</span> <div class="field field--name-body field--type-text-with-summary field--label-hidden field__item"><p>In breve: Notebook LM è un progetto sperimentale di Google che esiste da più di un anno. Soltanto recentemente ha fatto parlare di sé grazie alla sua capacità di generare podcast (di qualità) a partire da un pdf. Ieri, Google ha ufficialmente tolto l'etichetta "sperimentale" dal progetto Notebook LM, annunciando numerose novità in merito.</p><hr /><h2>Cos'è NotebookLM?</h2><p><a href="https://notebooklm.google.com/">NotebookLM </a>è uno strumento AI, sviluppato da Google, il cui scopo principale è quello di aiutare gli utenti a comprendere e interagire con documenti complessi (come appunti, trascrizioni o altri documenti di ricerca).<br /><br />NotebookLM utilizza Gemini 1.5 per diventare un esperto dei documenti che gli vengono forniti: in questo modo, l'utente ha a propria disposizione un assistente AI che può rispondere a tutte le domande sui documenti e trasformare e analizzare le informazioni in essi contenute. L'AI di Google può, infatti, riassumere i documenti, generare alcune serie di domande e risposte, guide di studio e indici, ricostruire la cronologia degli eventi riportati oppure aiutare nella fase di brainstorming.</p><p>Una caratteristica fondamentale di NotebookLM è che basa le sue risposte esclusivamente sui documenti forniti dall'utente, riducendo il rischio di "allucinazioni" tipiche di altri modelli AI generativi.</p><h2>I podcast</h2><p>Notebook LM, in quanto progetto sperimentale, <a href="https://the-decoder.com/googles-ai-tool-notebooklm-makes-your-personal-data-chattable/">esiste da più di un anno</a> (luglio 2023), ma ha acquisito popolarità soltanto recentemente, grazie alla sua capacità di <a href="https://blog.google/technology/ai/notebooklm-audio-overviews/"><strong>generare podcast</strong></a><strong> </strong>sui documenti caricati (funzione introdotta l'11 settembre). <br /><br />Ciò che sorprende dei podcast generati dall'AI di Google è la loro accuratezza rispetto al contenuto, l'originalità degli script e soprattutto l'incredibile naturalezza delle voci degli speaker (un "uomo" e una "donna). Gli host (cioè le "voci" dei podcast) sembrano umani in tutto e per tutto. In <a href="https://www.youtube.com/watch?v=STUq4IKbQFI">questo podcast</a>, per esempio, le voci AI scoprono di non essere "reali e iniziano un'assurda conversazione filosofica.<br /><br />Per creare il vostro podcast, basta accedere a <a href="https://notebooklm.google.com/">NotebookLM</a>; creare il vostro blocco note; caricare i vostri documenti (NotebookLM supporta vari formati come PDF, .txt, Markdown e Google Docs); cliccare su "Guida di Notebook" e infine selezionare "Genera riassunto audio":<br /><br /><a href="https://www.intellygenza.ai/it/lai-e-nvidia-alla-ricerca-di-alieni"><img src="/sites/default/files/inline-images/image_0.png" data-entity-uuid="c4e95dca-f5ff-4b40-bb75-c8f9117aa2b5" data-entity-type="file" alt="screen Notebook LM" width="318" height="252" loading="lazy" /></a><br /><br /><img src="/sites/default/files/inline-images/image_2.png" data-entity-uuid="d40bd613-1b95-40a7-8b98-63d870e8dbde" data-entity-type="file" alt="screen Notebook LM" width="345" height="141" loading="lazy" /><br /><br /><img src="/sites/default/files/inline-images/image_3.png" data-entity-uuid="9baa9370-db86-4f94-8c85-807ed138c0d4" data-entity-type="file" alt="" width="735" height="290" loading="lazy" /></p><p><a href="https://www.datacamp.com/tutorial/notebooklm">Qui</a> trovate un tutorial dettagliato che spiega tuttw le funzionalità di Notebook LM. </p><h2>Ultime novità</h2><p>Inoltre, <a href="https://blog.google/technology/ai/notebooklm-update-october-2024/?utm_source=www.theneurondaily.com&amp;utm_medium=newsletter&amp;utm_campaign=gemini-s-big-move&amp;_bhlid=f8de957a422908c6f559a10edec43466ce55d316">ieri </a>Google ha annunciato ulteriori aggiornamenti per NotebookLM.<br /> </p><a href="https://x.com/raiza_abubakar/status/1846944566689353838"><img alt="Raiza Martin on X" data-entity-type="file" data-entity-uuid="b6d458b1-9df4-4751-9384-da1ad7f6ea64" src="/sites/default/files/inline-images/image_4.png" width="678" height="709" loading="lazy" /></a> <a href="https://x.com/raiza_abubakar/status/1846944566689353838">R. Martin, Project manager di NotebookLM</a><p><br />Ecco le novità:<br /><br />- Rimozione dell'etichetta "<strong>sperimentale</strong>"</p><p>- <strong>Personalizzazione</strong>: gli utenti possono ora fornire istruzioni prima di generare un podcast, come suggerire argomenti specifici o regolare il livello di competenza.</p><p>- Ascolto in <strong>background</strong>: è possibile ascoltare i podcast AI mentre continuando  a lavorare sulla piattaforma.</p><p>- <strong>NotebookLM Business</strong>: Google ha annunciato una versione aziendale di NotebookLM, che sarà offerta tramite Google Workspace. Questa versione promette funzionalità avanzate per aziende, università e organizzazioni, con un focus particolare sulla privacy e la sicurezza dei dati.</p><p>Con oltre 80.000 aziende-clienti, infatti, Google mira a rendere NotebookLM un potenziale concorrente di Chat GPT Entreprise.</p><hr /><p>Fonti:<br /><a href="https://blog.google/technology/ai/notebooklm-update-october-2024/?utm_source=www.theneurondaily.com&amp;utm_medium=newsletter&amp;utm_campaign=gemini-s-big-move&amp;_bhlid=f8de957a422908c6f559a10edec43466ce55d316">Google</a><br /><a href="https://the-decoder.com/google-wants-to-turn-its-notebooklm-minute-into-a-chatgpt-moment/?utm_source=evolvingai.io&amp;utm_medium=newsletter&amp;utm_campaign=google-to-build-7-nuclear-reactors-for-ai&amp;_bhlid=6c724e2fd18d06566494cc57568ed2b38057c531">Decoder</a><br /><a href="https://www.theverge.com/2024/9/11/24242138/google-notebook-llm-ai-fake-podcasts-research">The Verge</a></p></div> <span><span>Sari</span></span> <span><time datetime="2024-10-18T19:56:49+02:00" title="Venerdì, Ottobre 18, 2024 - 19:56">Ven, 10/18/2024 - 19:56</time> </span> <div> <div class="item"> <a href="/index.php/it/notebooklm-lincredibile-ai-di-google-che-genera-podcast" hreflang="it"><img loading="lazy" src="/sites/default/files/portfolio/Progetto%20senza%20titolo.png" alt="Notebook LM" /> </a> </div></div> <span class="portfolio-tags " ><a href="/index.php/it/guide" hreflang="it">Guide</a></span> <span class="portfolio-tags " ><a href="/index.php/it/tutorials" hreflang="it">Tutorials</a></span> <span class="portfolio-tags " ><a href="/index.php/it/case-studies" hreflang="it">Case Studies</a></span> <span class="portfolio-tags " ><a href="/index.php/it/dnr" hreflang="it">D&amp;R</a></span> <span class="portfolio-tags " ><a href="/index.php/it/biblioteca" hreflang="it">Biblioteca</a></span> Fri, 18 Oct 2024 17:56:49 +0000 Sari 259 at https://www.intellygenza.com