На думку вчених, системи штучного інтелекту можна розробляти тільки за умови впевненості у позитивному ефекті та керованості ризиків.
Системи ШІ, ймовірно, несуть небезпеку для суспільства. Про це повідомляє сайт futureoflife.
Гендиректор SpaceX, Tesla й Twitter Ілон Маск, співзасновник Apple Стів Возняк і ще більше тисячі професорів, інженерів й дослідників написали відкритого листа, у якому закликають призупинити експерименти з впровадженням ШІ.
На думку авторів, навчання і випробування систем, потужніших за GPT-4, повинні припинитися мінімум на півроку, допоки не з'являться загальні протоколи безпеки.
Якщо запровадження такої паузи неможливе – уряди країн повинні втрутитися та ввести мораторій.
Розробникам ШІ і незалежним експертам слід використати цю паузу для розробки і запровадження набору загальних протоколів безпеки для вдосконаленого проектування штучного інтелекту.
"Нам слід запитати себе: чи повинні ми дозволити машинам наповнити наші інформаційні канали пропагандою та брехнею? Чи повинні ми автоматизувати всю роботу, включаючи задоволення, яке це приносить? Чи повинні ми розвивати нелюдські уми, які в результаті можуть перевершити нас чисельністю, перехитрити і замінити? Чи ми ризикуватимемо втратою контролю над нашою цивілізацією?" – зазначають автори листа.