Madre
PR manager
- Joined
- Sep 6, 2022
- Messages
- 58
- Reaction score
- 155
- Points
- 33
Ponad 1100 ekspertów w dziedzinie sztucznej inteligencji, w tym znane nazwiska, takie jak Elon Musk i współzałożyciel Apple Steve Wozniak, wezwało do wstrzymania rozwoju systemów sztucznej inteligencji potężniejszych niż GPT-4, do czasu wprowadzenia odpowiednich środków bezpieczeństwa. List otwarty, opublikowany przez grupę non-profit Future of Life Institute, argumentuje, że społeczeństwo nie jest jeszcze przygotowane na potencjalne zagrożenia, jakie mogą przynieść tak potężne systemy sztucznej inteligencji. W liście wzywa się do sześciomiesięcznej przerwy, która powinna być publiczna i możliwa do zweryfikowania, lub moratorium na taki rozwój przez rządy, jeśli nie można tego osiągnąć.
Podczas gdy niektórzy ludzie zakładają, że postępu technologicznego nie da się spowolnić, list otwarty wskazuje, że decyzje o tym, jakie rodzaje sztucznej inteligencji zostaną zbudowane i jak szybko będą się rozwijać, ostatecznie zależą od ludzi. Kluczową kwestią jest znalezienie mądrej równowagi między potencjalnymi korzyściami i zagrożeniami, jakie może przynieść sztuczna inteligencja. Im większe możliwości sztucznej inteligencji w zakresie zakłócania życia, tym większą musimy mieć pewność, że poradzimy sobie z tymi zakłóceniami i uznamy, że są one warte zachodu.
Wielu autorów science fiction na przestrzeni dziesięcioleci przedstawiało nam swoją wizję przyszłości, w której ludzkość została zniewolona lub zniszczona przez sztuczną inteligencję. Widzieliśmy to w Matrixie, Terminatorze, Blade Runnerze i tysiącach innych projektów. Ale zawsze wydawało nam się, że jeśli coś takiego nastąpi, to kiedyś później. Rewolucja nadeszła jednak tak nagle, że nikt nie był na nią przygotowany. Dziś widzimy tylko szczątkowe początki przyszłych technologii. Ale już teraz zmuszają one ludzkość do myślenia o przyszłości.
Czego można się spodziewać po masowym zastosowaniu tych technologii w codziennym życiu?