//

Як штучний інтелект може створювати фейки та маніпулювати емоціями людей завдяки досконалим знанням мови – Без Брехні

Як штучний інтелект може створювати фейки та маніпулювати емоціями людей завдяки досконалим знанням мови

Ізраїльський історик і футуролог Юваль Ной Харарі під час виступу на Frontiers Forum у Швейцарії заявив про те, що для того, щоб штучний інтелект став загрозою для виживання людської цивілізації, він не повинен ні мати свідомості, ані бути здатним керувати об’єктами фізичного світу. За словами вченого, саме такою уявляється загроза з боку ШІ, яку показують у фантастичних фільмах. http://surl.li/hqlwe

 

Але, як стверджує Харарі, останнім часом у публічну площину проникли інструменти ШІ, які становлять загрозу виживання нашої цивілізації з несподіваного боку.

«Оскільки ШІ може самостійно вчитися і самовдосконалюватися, навіть його розробники не знають всіх здібностей того, що вони створили, і самі бувають здивовані виникаючими здібностями і якостями цих інструментів», – заявив учений.

Широко відома здатність ШІ, що швидко зростає, писати тексти, створювати малюнки і музику. Але є й інші напрямки: створення дипфейків із голосами та зображеннями людей. Але, що важливіше, нові технології ШІ можуть створювати глибокі та емоційні стосунки з людьми.

«Коли ми розглядаємо всі ці здібності разом, пакетом, вони зводяться до однієї дуже важливої речі: здатності маніпулювати та генерувати мову комунікації за допомогою слів, зображень та звуків. Найважливіша частина революції ШІ полягає в тому, що нейромережа освоює мову на рівні, який перевершує середню людину. І завдяки цьому ШІ отримує ключ, який може відкрити всі наші інститути: від банків до храмів. Оскільки мова – це інструмент, який ми використовуємо, щоб дати інструкції нашому банку та водночас передати божественні видіння з нашого мозку», – заявив Харарі.

Він додав, що ще один кут, під яким можна подивитися на ситуацію, це зрозуміти, що ШІ «зламав операційну систему людської цивілізації». Оскільки мова була операційною системою кожної культури історії.

«Спочатку було слово. Ми використовуємо мову, щоб створити міфологію та закони, богів та гроші, мистецтво та науку, дружбу та нації. Права людини – це не біологічна природа, вони не закладені у нашій ДНК. Права людини – це щось, що ми створили за допомогою мови, розповідаючи історії та записуючи закони… Гроші – не біологічна чи фізична реальність. Банкноти – клаптики паперу, що нічого не варті, на даний момент 95% грошей – це навіть не банкноти, це просто електронна інформація в комп’ютерах, яка передається з одного місця в інше. Що дає грошам цінність – історії, які банкіри, міністри фінансів та криптоінвестори нам розповідають», – заявив Харарі.

Вчений також запропонував уявити, що буде, якщо ми житимемо у світі, в якому більшість історій, мелодій, зображень, законів та рішень будуть розроблені нелюдським інтелектом, який знає слабкості та пристрасті людського розуму. А також знає, як формувати з людьми глибокі та можливо навіть інтимні стосунки.

В іграх, наприклад шахах, жодна людина не може перемогти комп’ютер. А що ж буде, якщо така ж ситуація складеться у мистецтві, економіці, політиці та навіть релігії? Харарі додав, що коли люди говорять про небезпеку ChatGPT, вони переймаються тим, що школярі будуть використовувати його для написання творів. Але такі переживання закривають повну картину.

«Подумайте про наступну президентську кампанію у США. І постарайтеся уявити вплив нових технологій ШІ, які будуть використовуватися для написання маніфестів та фейкових новин», – заявив учений.

Харарі зазначив, що чим більше ми спілкуємося з ботами, тим краще вони нас пізнають і розуміють, як будувати повідомлення так, щоб вплинути на наші політичні чи економічні погляди. І впливати на наші погляди ШІ може, завдяки тому, що вже навчився будувати глибокі відносини з людьми.

«Щоб створювати фейкову інтимність із людиною, ШІ не повинен мати почуттів сам, він тільки повинен уміти викликати в нас почуття, щоб ми прив’язалися до нього. У червні 2022 року стався відомий інцидент, коли інженер Google заявив, що чат-бот, з яким він почав працювати, почав відчувати. Це суперечливе твердження коштувало йому роботи. Але найцікавішим було не це твердження, яке, швидше за все, було хибним, а те, що він був готовий ризикнути і, ймовірно, втратити свою роботу заради блага чат-бота. Якщо ШІ може вплинути на людей так, щоб вони втратили роботу, що ще може зробити?», – додав Харарі.

Він також зазначив, що в будь-якому політичному протистоянні інтимність – найефективніша зброя. А ШІ вже отримав можливість будувати довірчі стосунки із сотнями мільйонів людей.

Нагадаємо, наприкінці березня понад тисяча експертів, серед яких засновник SpaceX і Tesla Ілон Маск, один із засновників Apple Стів Возняк, сам Харарі та інші, підписали листа, в якому закликали поставити на паузу розробку просунутого штучного інтелекту.

 

//
Exit mobile version