Madre
PR manager
- Joined
- Sep 6, 2022
- Messages
- 58
- Reaction score
- 155
- Points
- 33
Oltre 1.100 esperti di IA, tra cui nomi di spicco come Elon Musk e il cofondatore di Apple Steve Wozniak, hanno chiesto di fermare lo sviluppo di sistemi di IA più potenti del GPT-4, fino a quando non saranno messe in atto misure di sicurezza adeguate. La lettera aperta, pubblicata dal gruppo no-profit Future of Life Institute, sostiene che la società non è ancora preparata ai potenziali rischi che sistemi di IA così potenti potrebbero comportare. La lettera chiede una pausa di sei mesi, che dovrebbe essere pubblica e verificabile, o una moratoria sullo sviluppo da parte dei governi, se non è possibile raggiungere questo obiettivo.
Sebbene alcuni diano per scontato che il progresso tecnologico non possa essere rallentato, la lettera aperta sottolinea che le decisioni su quali tipi di IA costruire e a quale velocità procedere spettano in ultima analisi all'uomo. Il punto chiave è trovare un saggio equilibrio tra i potenziali benefici e i rischi che l'IA potrebbe comportare. Più l'IA ha il potere di sconvolgere la vita, più dobbiamo essere sicuri di poter gestire le perturbazioni e di ritenerle utili.
Molti autori di fantascienza nel corso dei decenni ci hanno mostrato la loro visione di un futuro in cui l'umanità è stata schiavizzata o distrutta dall'intelligenza artificiale. Lo abbiamo visto in Matrix, Terminator, Blade Runner e in migliaia di altri progetti. Ma ci è sempre sembrato che se ci fosse stato un futuro, sarebbe stato qualche tempo dopo. Tuttavia, la rivoluzione è arrivata così all'improvviso che nessuno era preparato. Oggi vediamo solo gli inizi rudimentali delle tecnologie future. Ma stanno già costringendo l'umanità a iniziare a pensare al futuro.
Cosa vi aspettate dall'adozione di massa di queste tecnologie nella vita quotidiana?