Шеф AI-напрямку Microsoft застеріг від наділення нейромереж розумом.

“`html

Лише живі організми здатні мати свідомість. Розробникам та дослідникам потрібно зупинити роботу над проєктами, які передбачають зворотне, заявив голова ШІ-відділу Microsoft Мустафа Сулейман у бесіді з CNBC.

«Я не думаю, що людям варто братися за подібну роботу. Якщо поставити невірне питання, отримаєш невірну відповідь. Я переконаний, що це саме той випадок», — зауважив він на заході AfroTech у Х’юстоні.

Високопосадовець Microsoft не підтримує ідею створення штучного інтелекту, здатного до свідомого мислення, або сервісів ШІ, які нібито можуть відчувати страждання.

У серпні Сулейман написав есе, де запропонував новий вираз — «ШІ, що виглядає свідомим» (Seemingly Conscious AI, SCAI). Подібний штучний інтелект володіє всіма рисами розумних істот і, як наслідок, створює враження, що він має свідомість. Він відтворює всі характеристики самоусвідомлення, але насправді є пустим всередині.

«Система, яку я уявляю, насправді не є свідомою, але вона буде настільки переконливо імітувати наявність розуму, подібного до людського, що це буде важко відрізнити від твердження, яке ви або я могли б висловити одне одному про наше власне мислення», — пише Сулейман.

Наділяти ШІ свідомістю ризиковано, вважає експерт. Це посилюватиме неправдиві уявлення, породжуватиме нові проблеми залежності, експлуатуватиме наші психологічні слабкості, вноситиме нові рівні розколу, ускладнюватиме існуючі дебати про права й створить величезну нову категоріальну помилку для соціуму.

У 2023 році Сулейман став автором книги The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, в якій детально аналізуються загрози ШІ та інших новітніх технологій. Серед них:

  • екологічні та суспільні потрясіння — технології можуть трансформувати працю настільки швидко, що у людей пропадуть звичні ролі;
  • питання контролю — у міру розвитку ШІ стає все складніше забезпечити його роботу в інтересах людства;
  • використання технологій для кібератак, маніпулювання суспільством та інших небезпек;
  • потреба в технічних та інституційних засобах стримування ШІ;
  • ослаблення впливу національних держав і традиційних інституцій.

AGI

Ринок штучного інтелекту рухається в напрямку AGI — загального штучного інтелекту, здатного виконувати будь-які завдання на рівні людини. У серпні голова OpenAI Сем Альтман заявив, що цей термін, можливо, «не надто корисний». Моделі швидко вдосконалюються і незабаром ми будемо покладатися на них «все більше», вважає він.

Для Сулеймана принципово провести чітку межу між тим, що штучний інтелект стає більш інтелектуальним, і його здатністю коли-небудь відчувати людські емоції.

«Наш фізичний досвід болю — це те, що робить нас дуже сумними і змушує почуватися жахливо, але ШІ не відчуває смутку, коли відчуває “біль”», — сказав він.

Згідно з експертом, це вкрай важлива різниця. По суті, штучний інтелект створює уявлення — нібито оповідь про досвід — про себе і про свідомість, але він цього насправді не відчуває.

«Технічно ви це знаєте, тому що ми можемо бачити, що робить модель», — наголосив експерт.

У галузі штучного інтелекту існує запропонована філософом Джоном Серлем концепція під назвою біологічний натуралізм. Вона стверджує, що свідомість залежить від процесів живого мозку.

«Причина, через яку ми зараз надаємо людям права, полягає в тому, що ми не хочемо завдавати їм страждань, тому що вони страждають. У них є біль і вподобання, що включають уникнення болю. Ці моделі цього не мають. Це просто симуляція», — сказав Сулейман.

Топменеджер не підтримує ідею вивчення свідомості у ШІ, оскільки її там немає. Він зазначив, що Microsoft створює сервіси, які усвідомлюють, що вони є штучним інтелектом.

«Простіше кажучи, ми створюємо ШІ, який завжди працює на благо людини», — зауважив він.

Нагадаємо, у жовтні фахівці Anthropic встановили, що провідні моделі можуть виявляти форму «інтроспективного самоусвідомлення» — вони здатні розрізняти й описувати власні внутрішні «думки», а в деяких випадках навіть керувати ними.

“`

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються дані ваших коментарів.