News

Intelligenza artificiale, il Garante della Privacy blocca tutto: la drastica decisione

solofinanza.it

Il Garante della privacy ha disposto una serie di limitazioni su un modello di chatbot basato sull’intelligenza artificiale. Andiamo a scoprire i motivi che si celano dietro questa decisione

In un mondo in cui la tecnologia è sempre più padrona incontrastata, l’intelligenza artificiale sta prendendo sempre più forma. In Italia però si è registrato un clamoroso dietro front in tal senso, almeno per quanto concerne uno specifico strumento.

Si tratta di ChatGPT, modello di chatbot basato appunto sull’intelligenza artificiale. Il Garante della privacy ha deciso di bloccare fin quando non rispetterà la disciplina sulla privacy. Andiamo ad approfondire la questione.

Intelligenza artificiale: perché il Garante della Privacy ha bloccato ChatGPT

In pratica il Garante per la protezione dei dati personali ha disposto con effetto immediato la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti della società americana OpenAI, che ha sviluppato la piattaforma e la gestisce. A ciò va aggiunta l’apertura di un’istruttoria. Ma andiamo a ritroso ripercorrendo l’antefatto.

Lo scorso 20 marzo ChatGPT, ovvero il più noto tra i software di intelligenza artificiale relazionale che riesce a simulare ed elaborare conversazioni umane aveva subito una perdita di dati di non poco conto. Questi riguardavano le conversazioni degli utenti e le info relative al pagamento degli abbonati al servizio.

In seguito a ciò il Garante per la privacy ha rilevato la mancanza di un’informativa rivolta agli utenti e a tutti gli interessati (i cui dati vengono raccolti da OpenAI). Inoltre è stata riscontrata l’assenza di una base giuridica che giustifichi la raccolta e la conseguente conservazione dei dati personali. Dalle verifiche effettuate è emerso che le info fornite da ChatGPT non sempre corrispondono al dato reale e ciò comporta un trattamento dei dati personali non veritiero.

solofinanza.it

A complicare il quadro è anche il problema dell’età. Infatti il servizio sarebbe rivolto ai maggiori di 13 anni, ma è stata riscontrata l’assenza di qualsiasi strumento di verifica dell’anno di nascita. Un particolare di non poco conto che espone i minori a risposte non idonee rispetto al loro grado di sviluppo e di autoconsapevolezza.

OpenAI deve quindi comunicare in breve tempo le misure attuate in merito a quanto richiesto dal Garante. Qualora non si adegui sarà costretta a pagare una sanzione che può ammontare fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. Un passaggio obbligatorio per scongiurare una contravvenzione così salata che andrebbe a compromettere anche i piani futuri.