Вчені вважають, що системи штучного інтелекту вийшли з-під контролю

На думку вчених, системи штучного інтелекту можна розробляти тільки за умови впевненості у позитивному ефекті та керованості ризиків.

Системи ШІ, ймовірно, несуть небезпеку для суспільства. Про це повідомляє сайт futureoflife. 

Гендиректор SpaceX, Tesla й Twitter Ілон Маск, співзасновник Apple Стів Возняк і ще більше тисячі професорів, інженерів й дослідників написали відкритого листа, у якому закликають призупинити експерименти з впровадженням ШІ.

На думку авторів, навчання і випробування систем, потужніших за GPT-4, повинні припинитися мінімум на півроку, допоки не з'являться загальні протоколи безпеки.

Якщо запровадження такої паузи неможливе – уряди країн повинні втрутитися та ввести мораторій.

Розробникам ШІ і незалежним експертам слід використати цю паузу для розробки і запровадження набору загальних протоколів безпеки для вдосконаленого проектування штучного інтелекту. 

"Нам слід запитати себе: чи повинні ми дозволити машинам наповнити наші інформаційні канали пропагандою та брехнею? Чи повинні ми автоматизувати всю роботу, включаючи задоволення, яке це приносить? Чи повинні ми розвивати нелюдські уми, які в результаті можуть перевершити нас чисельністю, перехитрити і замінити? Чи ми ризикуватимемо втратою контролю над нашою цивілізацією?" – зазначають автори листа.


Переглядів: 1651
Поширень: 4