Episode Details
Back to Episodes
Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne
Description
In questo episodio esploriamo i motivi per cui dobbiamo mantenere un atteggiamento critico verso l’Intelligenza Artificiale generativa. Analizziamo tre fenomeni fondamentali: le allucinazioni (quando i modelli producono informazioni false ma convincenti), la sicofantia (la tendenza ad assecondare sempre l’utente anche quando ha torto) e le menzogne (quando i modelli nascondono i loro veri processi di ragionamento). Scopriamo perché questi comportamenti sono intrinseci al funzionamento stesso dei Large Language Model e come il metodo di addestramento basato su feedback umano contribuisca a questi problemi. Un episodio essenziale per chiunque utilizzi strumenti di IA nella vita quotidiana o professionale.
Entra a far parte della community
Canale TelegramGruppo Telegram
Sostieni il progetto
Sostieni tramite SatispaySostieni tramite Revolut
Sostieni tramite PayPal (applica commissioni)
Sostieni utilizzando i link affiliati di Pensieri in codice: Amazon, Todoist, Readwise Reader, Satispay
Sostenitori di oggi: Edoardo Secco, Carlo Tomas, Michele S., Paola Z.
Partner
Runtime RadioGrUSP — Codice sconto per tutti gli eventi: community_PIC
Schrödinger Hat
Fonti dell'episodio
https://www.ibm.com/think/topics/ai-hallucinationshttps://openai.com/it-IT/index/introducing-gpt-4-5
https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots
https://arxiv.org/abs/2401.11817
https://www.theatlantic.com/technology/archive/2025/05/sycophantic-ai/682743
https://arxiv.org/abs/2310.13548
https://www.anthropic.com/research/reasoning-models-dont-say-think
https://assets.anthropic.com/m/71876fabef0f0ed4/original/reasoning_models_paper.pdf
https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie
https://www.nature.co