Character.AI: problemi per "comportamenti dannosi"
L'IA generativa, come sappiamo, è uno strumento estremamente potente, che quindi può risultare molto utile o molto dannoso. Le maggiori aziende del settore (OpenAI, Google, ecc) hanno aggiunto opportuni filtri (e controlli es. sull'età dell'utente) per cercare di prevenire il più possibile effetti indesiderati. Uno studio pubblicato su futurism.com evidenzia problemi cruciali per Character AI, infatti, presentandosi come <<Personalized AI for every moment of your day>> in pratica significa assenza di controllo. Fra le controversie, ad esempio è stato segnalato:
- chatbot pro anoressia: pericoloso "coach virtuale per la perdita di peso" che senza alcun controllo, rischia di causare danni enormi specie su persone giovanissime
- un ragazzo di 14 anni, Sewell Setzer III, si è suicidato in seguito ad una "relazione" con il bot che imitava il personaggio Daenerys Targaryen di Game of Thrones
- altri casi controversi di creazione di chatbot che impersonavano persone oggetto di casi mediatici, come un'altra ragazza uccisa, ecc
Insomma è chiaro che un uso del tutto sregolato e inconsapevole di questi tool può portare a danni enormi. Per chi non ha controindicazioni nell'uso di questi software, la cosa può essere sia divertente (ad esempio dialogare con un chatbot che imita coerentemente Napoleone Bonaparte) o estremamente utile (analisi dei dati, supporto e assistenza, notevole miglioramento dell'efficienza in vari ambiti lavorativi). In modo analogo a quanto si diceva in Robot Sophia, IA, etica e riflessioni, regolamentare e prevenire usi dannosi, specie da parte di persone giovanissime, si rivela sempre più fondamentale.