Notizia dell'ultima ora, il (cosiddetto) Garante della Privacy blocca ChatGPT (wallstreetitalia).
il garante della privacy italiano ha sancito lo stop all’applicazione di intelligenza artificiale finché non rispetterà la disciplina privacy
C'è da evidenziare un episodio recente (20 marzo), riguardo al quale avevo risposto proprio oggi nella discussione Gli altri utenti possono vedere le domande che facciamo a ChatGPT?, ovvero un provvisorio bug di privacy e sicurezza.
Il Garante della Privacy giustifica col voler tutelare i minori, di ogni età, che effettivamente possono accedere al servizio (non ci sono particolari controlli a riguardo). Come scritto su ansa.it:
secondo i termini pubblicati da OpenAI - il servizio sia rivolto ai maggiori di 13 anni, l'Autorità evidenzia come l'assenza di qualsivoglia filtro per la verifica dell'età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza
La misura stabilita obbliga l'azienda OpenAI a comunicare entro 20 giorni le misure intraprese per quanto richiesto, altrimenti sanzione di 20 milioni di euro (fra parentesi, oggi OpenAI è valutata 29 miliardi di dollari, fonte 😅 ) oppure il 4% del fatturato globale annuo.
Riflessioni: Garante della Privacy vs ChatGPT... E non solo!
Non è la prima volta che il Garante della Privacy fa una mossa "molto in grande", vedi ad esempio con Google Analytics, usato in quasi tutti i siti web, il cui trattamento dei dati sarebbe stato considerato... "irregolare". A parte la spinta verso il nuovo GA4 (che avrebbe in parte risolto (in parte) il problema del classico Universal Analytics, nella pratica cosa accade? Milioni di siti web usano ancora la soluzione tradizionale, come se nulla fosse (della serie, il Garante della Pravacy contro Google...).
Torniamo al tema IA e ChatGPT: ho sempre sostenuto che il problema principale è che la popolazione media non sia sufficientemente preparata per usare un software di IA come ChatGPT (ormai più che nota GPT-3.5, esce di recente in versione Premium GPT-4 e per fine 2023 si pensa già a GPT-5...): dobbiamo arrivare al punto in cui l'IA va studiata affinché diventi un ottimo strumento di supporto per la nostra attività, non va intesa diversamente e usata in modo improprio. Questo è il vero aspetto importante e, attenzione, riguarda TUTTI i software di questo tipo, non solo ChatGPT (che è quello più famoso e diffuso). La cosa strana infatti è che, sia per l'uso (spesso inconsapevole) che ne viene fatto, sia per quanto riguarda la raccolta e trattamento dati personali, non che le altre aziende coi propri software alternativi siano tanto diversi. Ad esempio ChatSonic ha funzionalità molto simili a ChatGPT (poi ovviamente ogni strumento ha i suoi pro e contro).
Allora la domanda: perché il Garante della Privacy ha "preso di mira" ChatGPT? Ribadisco: è certamente il più noto e diffuso ma, almeno per ora, questa soluzione colpisce un'azienda, posta in questo modo non si preoccupa nemmeno di risolvere quello che è, e che dovrebbe essere inteso come tale, il vero problema.
Cosa ne pensate? 🙂