Madre
PR manager
- Joined
- Sep 6, 2022
- Messages
- 58
- Reaction score
- 155
- Points
- 33
Plus de 1 100 experts de l'IA, dont des noms éminents comme Elon Musk et Steve Wozniak, cofondateur d'Apple, ont appelé à l'arrêt du développement de systèmes d'IA plus puissants que le GPT-4, jusqu'à ce que des mesures de sécurité appropriées soient mises en place. La lettre ouverte, publiée par le groupe à but non lucratif Future of Life Institute, affirme que la société n'est pas encore préparée aux risques potentiels que des systèmes d'IA aussi puissants pourraient entraîner. La lettre appelle à une pause de six mois, qui devrait être publique et vérifiable, ou à un moratoire sur ce type de développement par les gouvernements si cela n'est pas possible.
Alors que certains pensent que le progrès technologique ne peut être ralenti, la lettre ouverte souligne que les décisions relatives aux types d'IA à construire et à la vitesse à laquelle elles seront mises en œuvre relèvent en fin de compte de la responsabilité des humains. L'essentiel est de trouver un juste équilibre entre les avantages et les risques potentiels de l'IA. Plus l'IA a le pouvoir de perturber la vie, plus nous devons être sûrs de pouvoir gérer ces perturbations et penser qu'elles en valent la peine.
Au fil des décennies, de nombreux auteurs de science-fiction nous ont présenté leur vision d'un avenir où l'humanité serait réduite en esclavage ou détruite par l'intelligence artificielle. Nous avons vu cela dans Matrix, Terminator, Blade Runner et des milliers d'autres projets. Mais il nous a toujours semblé que s'il devait y en avoir une, ce serait un peu plus tard. Cependant, la révolution est arrivée si soudainement que personne n'y était préparé. Aujourd'hui, nous ne voyons que les prémices rudimentaires des technologies futures. Mais elles obligent déjà l'humanité à commencer à penser à l'avenir.
Qu'attendez-vous de l'adoption massive de ces technologies dans la vie quotidienne ?