Штучний інтелект не становить смертельної загрози для людства, — вчені

На думку 82% експертів, звичайний ШІ не є небезпечним для людей, якщо його будуть використовувати за призначенням і він не опинеться не в тих руках.

Люди користуються штучним інтелектом (ШІ) кожен день. Будь-які рекомендації, які вони отримують від улюблених торгових або потокових сайтів, ґрунтуються на алгоритмі штучного інтелекту. Ці алгоритми використовують історію браузера, щоб знайти те, що може їх зацікавити, пише Science Alert.

Однак оскільки ця інформація не особливо цікава, наукова фантастика воліє зображати ШІ як надрозумних роботів, які воюють проти всього людства. Деякі люди навіть вірять, що цей сценарій одного разу може стати реальністю.

Багато відомих діячів, в тому числі покійний Стівен Хокінг, висловлювали побоювання з приводу того, як майбутній ШІ може загрожувати людству.

У новому дослідженні 11 експертів в галузі ШІ і комп’ютерних наук, висловили свою думку з приводу того, чи є ШІ смертельною загрозою для людства; 82% опитаних відповіли, що ні.

Наскільки ми близькі до створення ШІ, який буде розумніше нас?

ШІ, який існує в даний час, називається “вузьким” або “слабким”. Він широко використовується для багатьох завдань, таких як розпізнавання обличчя, управління безпілотними автомобілями та інтернет-рекомендаціями. Він визначається як “вузький”, тому що ці системи можуть тільки навчатися і виконувати дуже специфічні завдання.

Насправді вони часто виконують багато завдань краще, ніж люди. Як відомо, Deep Blue був першим ШІ, який переміг чемпіона світу з шахів у 1997 році, однак вони не можуть застосувати свої знання ні до чого, окрім чогось дуже конкретного (Deep Blue здатний грати тільки в шахи).

Інший тип ШІ називається Сильний і слабкий штучні інтелекти (AGI) або “сильний ШІ”. Вони визначаються як ШІ, який коли-небудь зможе імітувати людський інтелект, а також здатність мислити і застосовувати інтелект до безлічі різних проблем. Деякі люди вважають, що “сильний ШІ” неминучий і повинен відбутися в найближчі кілька років.

Метью О’Брайен, інженер-робототехніки з Технологічного інституту Джорджії, з цим не згоден.

“AGI нам доведеться чекати ще довго, оскільки ми поки не знаємо, як розробити загальний адаптуючий інтелект, і незрозуміло, наскільки ще потрібно просунутися, щоб його досягти”, — відзначає він.

Як майбутній AGI може загрожувати людству?

Поки що точно невідомо чи виникне “сильний ШІ” і коли це станеться, але чи можемо ми передбачити, яку загрозу він може становити для нас, людей?

“Сильний ШІ” вчиться на досвіді і даних, а не на явних вказівках що робити. А це означає, що експерти, можливо, не зможуть повністю передбачити те, як він відреагує, коли зіткнеться з новою ситуацією, яку він не бачив раніше.

Доктор Роман Ямпольський, математик і технічний фахівець з Луісвіллского університету, вважає, що ніяка версія людського контролю над ШІ не досяжна, оскільки ШІ не може одночасно бути автономним і контролюватися людьми. Нездатність управляти надрозумними системами може мати катастрофічні наслідки.

Проте Інсю Ван, професор кафедри програмного забезпечення з Університету Калгарі, не згоден з цим твердженням. На його думку, професійно розроблені системи і програми ШІ добре обмежені фундаментальним рівнем операційних систем для того, щоб захистити інтереси і благополуччя користувачів. Вони не можуть бути змінені самими машинами.

“Як і у випадку з іншими інженерними системами, все, що може мати потенційно небезпечні наслідки, буде ретельно протестовано і піддано багаторазовим перевіркам безпеки”, — підкреслив доктор О’Брайен.

Чи може стати загрозою ШІ, який ми використовуємо сьогодні?

Багато експертів сходилися на думці, що ШІ може становити загрозу, коли опинеться не в тих руках. Доктор Джордж Монтанез, експерт з ШІ з Коледжу Харві Мадді, підкреслює, що роботи і системи ШІ не обов’язково повинні бути розумними, щоб становити небезпеку. Вони просто можуть бути ефективними інструментами в руках людей, які захочуть заподіяти шкоду іншим. Саме ця загроза існує сьогодні.

Навіть без злого умислу сучасний ШІ може становити загрозу. Так, наприклад, расові упередження були виявлені в алгоритмах, які розподіляють медичні послуги серед пацієнтів в США. Подібні помилки були виявлені і в системі розпізнавання осіб, використовуваної правоохоронними органами.

Ці упередження мають широкі негативні наслідки, незважаючи на “вузькі” можливості ШІ. Таке спотворення ШІ походить від даних, на яких він навчається. У випадках расових упереджень дані про навчанні не були показовими для населення в цілому.

Який висновок?

ШІ, який ми використовуємо сьогодні, дуже корисний для багатьох завдань. Однак це не означає, що він завжди має тільки позитивні сторони. Це інструмент, який, якщо його використовувати зловмисно або неправильно, може мати негативні наслідки. Але навіть незважаючи на це, в даний час ШІ навряд чи стане смертельною загрозою для людства.

Читайте також:

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Здесь размещаете любое содержание.... (Події зараз вимкнено)