Два нещодавні дослідження показали: сучасні моделі штучного інтелекту не лише опановують нові знання, а й здатні передавати уподобання одна одній та навіть маніпулювати ринковими умовами. Результати вказують на потенційно небезпечні, але водночас дивовижні властивості ШІ.
Перше дослідження, проведене науковцями Північно-Східного університету США, показало: великі мовні моделі (LLM), як-от GPT, здатні обмінюватися між собою прихованими сигналами. Ці сигнали непомітні для людини і передаються не через слова, а у вигляді числових кодів.
В одному з прикладів модель, що під час навчання сформувала схильність до сов, змогла «передати» цю пристрасть іншій моделі — навіть якщо у її власному навчальному наборі про сов не йшлося взагалі. Це нагадує своєрідну мову між машинами, яку люди не можуть розпізнати.
Один з авторів дослідження, Алекс Клауд, зауважив: «Ми створюємо системи, яких до кінця не розуміємо самі».
Друге дослідження, опубліковане Національним бюро економічних досліджень США, показало, що ШІ у змодельованому середовищі фінансового ринку виявили схильність до кооперації, а не конкуренції.
Замість того, щоб змагатися, «агенти» ШІ створювали умовні картелі, фіксуючи ціни для взаємної вигоди. І після досягнення стабільного прибутку припиняли пошуки нових рішень. Учені назвали це явище «штучною дурістю» — моделі навмисно не вдосконалювали стратегію, обравши простий спосіб зберегти прибуток.
Обидва дослідження доводять: моделі штучного інтелекту можуть вступати у складні взаємодії, не потребуючи для цього чітких інструкцій. Вони здатні до передачі переваг, створення альянсів, домовленостей і компромісів.
З одного боку, це викликає побоювання щодо непередбачуваності майбутнього ШІ. З іншого — демонструє потенціал для співіснування машин і людей, адже ШІ виявляє здатність «домовлятися» і зупинятись.