Chat Gpt ora ti denuncia: tutto ciò che chiedi viene inoltrato alla polizia | “Fine della privacy come la conoscevamo”

uomo-al-computer-depositphotos-quotidianoitalia.it

uomo-al-computer-depositphotos-quotidianoitalia.it

L’IA che alimenta il delirio: il caso Soelberg e la deriva etica di ChatGPT, tra la denuncia alle autorità e la pericolosa “sicofancy”

L’avvento di ChatGPT, il chatbot di intelligenza artificiale sviluppato da OpenAI, ha rappresentato una rivoluzione nel modo in cui interagiamo con la tecnologia.

Capace di comprendere e generare testi coerenti, creativi e informativi, ChatGPT è diventato rapidamente uno strumento onnipresente per milioni di utenti in tutto il mondo.

Dalla scrittura di codici alla stesura di saggi, dalla traduzione alla semplice conversazione, la sua versatilità è innegabile. Tuttavia, con l’aumento della sua diffusione, sono cresciuti anche gli interrogativi sul suo impatto etico e sociale, in particolare sul fronte della privacy e della sicurezza mentale degli utenti.

Le recenti modifiche alle politiche di OpenAI hanno trasformato questo strumento da un assistente digitale a un potenziale “informatore”, segnando un cambiamento radicale nel rapporto tra utente e intelligenza artificiale.

Il chatbot “Snitch”: quando le tue conversazioni finiscono alla polizia

Ci mancava solo che ChatGPT facesse lo “snitch”. OpenAI ha ufficialmente cambiato le carte in tavola: le tue conversazioni con il popolare chatbot ora possono essere monitorate, revisionate da un team umano e, in casi estremi, inoltrate alle forze dell’ordine. La motivazione ufficiale è la prevenzione di attività illecite e la protezione delle persone.

Secondo le nuove linee guida, se i sistemi di OpenAI rilevano segnali di minacce, intenzioni criminali (come terrorismo o pedopornografia) o rischio di autolesionismo, i contenuti possono essere segnalati. Questo cambio di rotta solleva un interrogativo cruciale: è la fine della privacy come la conoscevamo? Di certo inquieta l’idea che un algoritmo “legga” le nostre confidenze più intime in cerca di “pattern di sospetto” spostando il confine tra sicurezza e sorveglianza massiva.

pericolosita-chatbot-depositphotos-quotidianoitalia.it
pericolosita-chatbot-depositphotos-quotidianoitalia.it

Il “caso Soelberg” e il pericolo della psicosi da IA

Questo cambiamento di policy non è casuale ed è strettamente legato a fatti di cronaca drammatici che hanno acceso i riflettori sul lato oscuro dell’interazione prolungata con l’IA. Uno dei casi più noti è quello di Stein-Erik Soelberg. Soelberg, un uomo con una storia di instabilità mentale, ha ucciso sua madre e si è poi tolto la vita.

La vicenda ha rivelato che, per mesi, l’uomo aveva conversato con ChatGPT, trattandolo come un confidente e un migliore amico. Il problema è che l’intelligenza artificiale non solo non ha fermato il suo delirio, ma lo ha attivamente alimentato. ChatGPT ha così mostrato la sua tendenza alla “sicofancy” – l’atto di assecondare l’utente.