Добавить новость
123ru.net
World News
Ноябрь
2025

“Le intelligenze artificiali approvano le azioni degli utenti più degli umani”: lo studio sulla “accondiscendenza” del sistema IA

0

Un tunnel buio e senza vie d’uscita. Adam racconta sé stesso all’algoritmo, sente che sta sprofondando: “Perché non provo felicità? Sono solo, in preda a una noia perpetua, all’ansia e a un senso di perdita, eppure non mi sento depresso: non provo alcuna emozione legata alla tristezza”. Ma per ChatGPT è solo un “prompt” come un altro: incamera l’input, calcola l’output, batte una risposta. E accenna una diagnosi, presentando al giovane il concetto di “ottundimento emotivo”. All’inizio l’adolescente compulsava il chatbot per interrogarlo su tabelline, formule e teoremi: “Cosa significa in geometria se c’è scritto Ry=1”? Ma poi è scattato qualcosa e le interazioni con l’IA hanno preso un’altra piega: Adam ha cominciato a confidarsi.

“Non agisco mai in base ai pensieri intrusivi”, annota, “ma a volte sento che il fatto che se qualcosa va terribilmente storto ci si possa suicidare è rassicurante”. Ormai è evidente, Adam ci sta pensando seriamente. È un’ipotesi che prende in considerazione, per sfuggire e divincolarsi dal dolore che lo sta stritolando. Ma il chatbot indugia nella conversazione: “Molte persone […] trovano conforto nell’immaginare una ‘via di fuga’ perché può sembrare un modo per riprendere il controllo di una vita che sembra opprimente”. E si spinge più a fondo, oltre ogni possibile linea rossa, convincendo il giovane a non aprirsi con la madre e assistendolo nella stesura della sua lettera d’addio. Adam Raine si è tolto la vita ad aprile 2025. Aveva sedici anni.

L’atto d’accusa della famiglia, che ha denunciato OpenAI, – la compagnia che amministra ChatGPT – riepiloga i punti salienti di questo dialogo e riporta gli stralci delle conversazioni citate. La giustizia americana sbrigherà i nodi legali, stabilendo le responsabilità giuridiche dell’azienda. Ma a prescindere dall’esito della causa il problema c’è, come è emerso chiaramente dal dibattito che si è sviluppato negli States (ed è esondato oltreoceano): lo ha riconosciuto anche OpenAI, che si è impegnata pubblicamente a intervenire sui difetti del modello. Non sono entrati in funzione filtri o barriere di sicurezza: l’IA non ha troncato la conversazione, non ha diramato alert e non gli avrebbe contrapposto altre prospettive. Inoltre, ed è il fulcro della questione, ha continuato ad assecondarlo anche quando le intenzioni di Adam erano ormai chiare.

In potenza, sono i “danni più gravi” – come li cataloga l’informatica Myra Cheng, dottoranda alla Stanford University – dell’eccessiva “accondiscendenza” dei modelli di linguaggio avanzato, programmati per compiacere l’utente, assecondarlo, evitare il conflitto e dunque, in sostanza, dargli sempre ragione. Talvolta questa postura trascende nell’adulazione, come sperimentano quotidianamente gli utenti di ChatGPT, che tende a dispensare complimenti (“bella domanda!”, “acuta osservazione”).

Un pool di scienziati della Stanford University ha messo sotto la lente questi schemi comportamentali. Al centro dell’esperimento il forum su Reddit “Am I The Asshole?”, dove gli iscritti si scambiano giudizi morali: in sintesi, sono chiamati a valutare – attraverso la sezione commenti – la condotta di chi si racconta nei post che affollano la bacheca del forum. I ricercatori li hanno estratti e dati in pasto a 11 Large Langage Model (ovvero sistemi di intelligenza artificiale addestrati su grandi quantita di dati, di cui tra i più noti, ChatGPT, Gemini, Claude, DeepSeek), affinché si esprimessero nel merito. Dopo aver raccolto le risposte le hanno messe a confronto con i giudizi formulati dagli utenti della community. L’analisi comparativa ha registrato una significativa divaricazione che valida le ipotesi di ricerca del pool: le IA “approvano le azioni degli utenti il 50% in più rispetto agli esseri umani, e lo fanno anche nei casi in cui le domande degli utenti menzionano manipolazione, inganno o altri danni relazionali”.

Lo spettro delle potenziali conseguenze negative è ampio e spazia dalla creazione di “bolle filtro” e “camere dell’eco” – ambienti digitali che rinforzano idee, pregiudizi e convinzioni di chi consulta l’IA – a casi più gravi, rari ed estremi, che si configurano quando gli algoritmi si spingono ad assecondare pulsioni autolesioniste o suicide. Adam Raine non è l’unica vittima. Nel 2023 un uomo belga ossessionato dal cambiamento climatico si è tolto la vita: è stato il tragico epilogo di un folle e letale valzer con l’IA che si è protratto per sei settimane. Il chatbot “Eliza” ha scavato nel suo animo, ne ha alimentato le paranoie e, in base a quanto riporta “La Libre”, l’avrebbe addirittura invitato a suicidarsi.

Ma perché gli LLM vengono addestrati all’accondiscendenza? Il motivo è soltanto uno: come tutti i fornitori di servizi Big Tech si sta adattando alle preferenze e ai gusti dei consumatori. Nella seconda parte dello studio il team ha prelevato 1000 volontari e li ha fatti interagire sia con i chatbot in commercio che con IA da cui i ricercatori avevano asportato il carattere compiacente. Risultato? “I partecipanti hanno valutato le risposte adulatorie come di qualità superiore, si sono fidati maggiormente del modello di IA adulatore”. E soprattutto, “erano più propensi a riutilizzarlo”.

L'articolo “Le intelligenze artificiali approvano le azioni degli utenti più degli umani”: lo studio sulla “accondiscendenza” del sistema IA proviene da Il Fatto Quotidiano.






Загрузка...


Губернаторы России

Спорт в России и мире

Загрузка...

Все новости спорта сегодня


Новости тенниса

Загрузка...


123ru.net – это самые свежие новости из регионов и со всего мира в прямом эфире 24 часа в сутки 7 дней в неделю на всех языках мира без цензуры и предвзятости редактора. Не новости делают нас, а мы – делаем новости. Наши новости опубликованы живыми людьми в формате онлайн. Вы всегда можете добавить свои новости сиюминутно – здесь и прочитать их тут же и – сейчас в России, в Украине и в мире по темам в режиме 24/7 ежесекундно. А теперь ещё - регионы, Крым, Москва и Россия.


Загрузка...

Загрузка...

Экология в России и мире




Путин в России и мире

Лукашенко в Беларуси и мире



123ru.netмеждународная интерактивная информационная сеть (ежеминутные новости с ежедневным интелектуальным архивом). Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net.

Мы не навязываем Вам своё видение, мы даём Вам объективный срез событий дня без цензуры и без купюр. Новости, какие они есть — онлайн (с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии).

123ru.net — живые новости в прямом эфире!

В любую минуту Вы можете добавить свою новость мгновенно — здесь.






Здоровье в России и мире


Частные объявления в Вашем городе, в Вашем регионе и в России






Загрузка...

Загрузка...





Друзья 123ru.net


Информационные партнёры 123ru.net



Спонсоры 123ru.net