user1972 mah, come sempre la cosa viene molto mistificata.
Sovraumana = "capacità superiori agli esseri umani"
Va bene, ma nello specifico cosa significa? Vediamo un po':
- la cosiddetta "IA forte" non è MAI stata sviluppata e non perché ci siano di per sé costi elevati o passaggi obbligati da svolgere, ma per un altro motivo: non sappiamo proprio quale direzione prendere! La realtà è questa, come dicevo in Test di Turing e altre valutazioni per l' "intelligenza" dell'IA, non siamo in grado di dare autocoscienza ad una macchina, così come non siamo in grado di "creare la vita" artificialmente (ok, sai che sono necessari elementi come carbonio, idrogeno, azoto ecc, guarda caso però se metti assieme atomi o molecole non riesci a dare origine ad un essere vivente!). Quindi al momento ci dobbiamo accontentare di soluzioni fasulle (e forse anche in futuro), ovvero aumentando sempre di più il database, dati a disposizione (e varie operazioni di pre-set per la calibrazione dei parametri) il sofware attinge ad una quantità di dati sempre maggiore
- al di fuori del punto precedente, possiamo anche dire che "capacità superiori agli esseri umani" le hanno anche le più semplici e primitive calcolatrici che sono state costruite! Per non parlare degli attuali computer.
Quindi è ben importante capire cosa si intenda con "capacità superiori agli esseri umani". L'IA forte e quello che ne è connesso, resta fantascienza! L'unico vero rischio dovuto all'IA è un uso sbagliato su larga scala. Seriamente, l'IA non distruggerà il mondo, i robot non prenderanno il sopravvento (ma come, se nemmeno conosciamo minimamente la strada da percorrere per sviluppare un' "IA forte"), cerchiamo di essere realisti. L'uso sbagliato invece è una scarsa consapevolezza da parte degli utenti (copia-incolla delle risposte da parte degli studenti, convinti che siano sempre corrette, produzione di deepfake, revenge-porn e casi simili); la regolamentazione infatti è importantissima, a livello globale (in Europa abbiamo già raggiunto un accordo sull'AI Act, finalmente, anche gli USA mi auguro cercheranno di seguirci in futuro, essendo in genere molto più orientati all'innovazione che alla regolamentazione, rispetto del trattamento dei dati, privacy ed etica). I rischi di un uso scorretto delle tecnologie di IA quindi sono questi.
Vedi anche quanto dicevo in: vale la pena studiare ingegneria...per un "futuro AI"?
Aggiungo infine: smettiamo di trattare i robot come esseri umani! (wired.it) Il confronto di abilità e intelligenza fra una macchina (lato hardware o software, che sia) e un essere umano, è concettualemente sbagliato, dobbiamo vedere l'IA come strumento di assistenza e supporto, ricordiamoci che il fatto di volerlo necessariamente vedere come nostro simile o sostituto deriva da un NOSTRO problema, è un'interpretazione sbagliata che siamo noi a dare, non di certo il software o lo scheletro metallico del robot.