Madre
PR manager
- Joined
- Sep 6, 2022
- Messages
- 58
- Reaction score
- 155
- Points
- 33
Более 1100 экспертов в области ИИ, среди которых такие известные личности, как Элон Маск и соучредитель Apple Стив Возняк, призвали остановить разработку систем ИИ, более мощных, чем GPT-4, до тех пор, пока не будут приняты соответствующие меры безопасности. В открытом письме, опубликованном некоммерческой группой Future of Life Institute, утверждается, что общество еще не готово к потенциальным рискам, которые могут принести такие мощные системы ИИ. Авторы письма призывают взять шестимесячную паузу, которая должна быть публичной и проверяемой, или ввести мораторий на подобные разработки со стороны правительств, если этого невозможно добиться.
Хотя некоторые считают, что технологический прогресс нельзя замедлить, в открытом письме отмечается, что решения о том, какие типы ИИ будут созданы и как быстро они будут развиваться, в конечном итоге должны принимать люди. Главное - найти разумный баланс между потенциальными выгодами и рисками, которые может принести ИИ. Чем больше возможностей у ИИ нарушить жизнь, тем больше уверенности в том, что мы сможем справиться с этими нарушениями и посчитать их целесообразными.
Многие авторы научной фантастики на протяжении десятилетий показывали нам свое видение будущего, в котором человечество будет порабощено или уничтожено искусственным интеллектом. Мы видели это в "Матрице", "Терминаторе", "Бегущем по лезвию" и тысячах других проектов. Но нам всегда казалось, что если это и произойдет, то только когда-нибудь потом. Однако революция произошла так внезапно, что никто не был к ней готов. Сегодня мы видим лишь зачатки технологий будущего. Но они уже заставляют человечество задуматься о будущем.
Чего вы ожидаете от массового внедрения этих технологий в повседневную жизнь?