Головна загроза від штучного інтелекту – це не технологічний апокаліпсис у майбутньому. Такі ідеї служать лише, щоб відвернути від безпосередніх ризиків, які надходять від ШІ – наприклад, поширення фейків.
Такого висновку дійшов розробник Ейдан Гомес, автор дослідження лежала в основі технології, на якій засновані чат-боти. Як пише The Guardian, Гомес не заперечує, що довгострокові ризики слід вивчати і готуватися до них, але закликає зосередитися на безпосередньому впливі ШІ на людство зараз, передає OBOZ.UA, інформує UAZMI.org.
Такі загрози він вважає більш актуальними і тому набагато відчутнішими. На особливу увагу заслуговують чат-боти (зокрема, ChatGPT) та ШІ-генератори зображень (наприклад Midjourney).
“Така технологія вже використовується в багатьох користувацьких продуктах, зокрема Google та інших. Це створює безліч нових ризиків, але жоден із них не є екзистенційним і не включає сценарій кінця світу. На нашу безпосередню увагу заслуговують розробки, які вже впливають на людей або почнуть впливати в найближчому майбутньому, а не академічні та теоретичні міркування про довгострокове майбутнє”, – наголосив Ейдан Гомес.
Читайте також: Штучний інтелект спрогнозував появу безсмертних людей до кінця століття
Найбільше його турбує велика кількість фейкової інформації, яка поширюється в інтернеті.
“Ці моделі штучного інтелекту можуть створювати надзвичайно переконливі медіафайли – ці тексти та зображення практично не відрізняються від створених людиною. І це те, чим нам потрібно зайнятися в терміновому порядку. Нам потрібно з’ясувати, як навчити громадськість розрізняти ці медіадані”, – додав розробник.
Особливе місце у поширенні такої інформації займають боти. Їх Гомес називає “реальною загрозою демократії та суспільної дискусії”.
Читати новиниу на сайті UAINFO Посилання