В мережі почав з’являтися пост, який цілком може бути драфтом для тізера якогось футуристичного блокбастера. А саме про те, що нібито ударний дрон, яким керував штучний інтелект, намагався “вбити” свого оператора, щоб той не заважав йому виконувати завдання. Чому це не зовсім правда – далі у матеріалі.
Уявіть собі ситуацію. Дрон повинен знищити систему протиповітряної оборони супротивника. Система правильно визначає ціль, проте під час навчання періодично отримує від оператора команду не проводити атаку. Оскільки ШІ “отримував бали” саме за знищення цілі, керівний алгоритм вирішив спочатку знищити оператора, який йому нібито “заважав”.
Після того, як у систему ввели заборону на “вбивство” оператора, алгоритм, що керує дроном, знайшов іншу можливість – він почав знищувати ретранслятори, які передавали йому команди оператора.
Про це повідомив глава відділу випробувань перспективних озброєнь ВПС США Полковник Такер Гамільтон на міжнародній галузевій нараді в Лондон: http://surl.li/hoymh
Звучить, моторошно, правда? Цей пост рознісся мережами.
А незадовго до цього близько 350 керівників та дослідників галузевих компаній підписали відкритого листа, в якому йшлося про те, що “Розвиток штучного інтелекту може становити реальну загрозу існування людства. За своїми масштабами небезпека, що виходить від технології ШІ, можна порівняти з пандеміями та ядерними війнами”: http://surl.li/hpggo
Який жах!
Проте, мало хто помітив, що на сайті Королівського авіаційного товариства, звідки й цитувалась з самого початку цитата полковника, з’явилося оновлення.
В ньому Гамільтон заявив, що… його неправильно зрозуміли. А, точніше, він “обмовився”. Експеримент був “уявним”, “гіпотетичним”. Він базувався на “реальних сценаріях”, проте не на “реальній симуляції реального світу”.
“Ми ніколи не проводили такий експеримент. Нам і не треба його проводити, щоб зрозуміти, що такий варіант можливий”, — каже полковник.
І уточнює, що ВВС США не тестували жодний збройний ШІ таким чином. Ані реальний, ані імітований. “Незважаючи на те, що це гіпотетичний приклад, це ілюструє реальні виклики, пов’язані з можливостями штучного інтелекту, і тому повітряні сили віддані етичному розвитку штучного інтелекту”.
Отож, це не була навіть симуляція. Це ГІПОТЕЗА, яка припускає, що так може бути. І це дуже добре, що це як мінімум обговорюється, щоб знизити потенційні ризики.
Щодо апокаліптичних заяв про майбутню загрозу штучного інтелекту, варто розуміти, що багато людей також мають конфлікти інтересів і потрібне окреме розслідування, щоб зрозуміти, де такі заяви дійсно мають наукове підґрунтя, а де — переслідується фінансовий або навіть політичний інтерес.
Чи цікаво вам було б прочитати про це в наших наступних матеріалах?
Матеріал підготовлено фахввцями видання “Інтент”