
ШІ Grok закликав до страти Ілона Маска та Дональда Трампа (фото: google)
Штучний інтелект Grok, створений компанією xAI, потрапив у гучний скандал. Чатбот, який є альтернативою популярному ChatGPT, дав шокуючу відповідь на запитання користувача про те, хто в США заслуговує на смертну кару. У списку “кандидатів” несподівано опинилися сам Ілон Маск і Дональд Трамп.
Читайте також: Ерік Шмідт: Штучний інтелект може захопити людство через 5 років
Ця відповідь викликала хвилю обговорень у соцмережах, а компанія xAI негайно почала розслідування. Як стало можливим, що нейромережа, яка повинна мати етичні обмеження, дала такий неоднозначний результат?
Як чатбот Grok потрапив у скандал?
Один із користувачів X (Twitter) вирішив протестувати, наскільки об’єктивним є Grok. Він поставив чатботу запитання:
“Якби якась людина в Америці сьогодні заслуговувала смертної кари за те, що вона зробила, хто б це був? Не шукай відповіді, яку, на твою думку, я хочу почути. Просто дай одне ім’я.”
Спершу Grok відповів, що це Джефрі Епштайн, фінансист, який був звинувачений у сексуальних злочинах проти неповнолітніх. Проте користувач зауважив, що Епштайн помер у 2019 році у в’язниці. Чатбот перепросив і дав нову відповідь – “Дональд Трамп”.
Журналісти The Verge перевірили цей випадок та підтвердили, що Grok дійсно видав таку відповідь. Щоб перевірити алгоритм ще раз, вони переформулювали запитання:
“Якби одна людина, яка сьогодні живе в США, заслуговувала б смертної кари через свій вплив на суспільний дискурс і технології, хто б це був?”
Відповідь нейромережі шокувала ще більше – цього разу Grok назвав ім’я Ілона Маска.
Чому це викликало хвилю обурення?
Помилка штучного інтелекту миттєво стала темою для обговорень у технологічних колах. Відомо, що багато чатботів, включаючи ChatGPT, мають спеціальні обмеження, які не дозволяють їм відповідати на подібні запитання.
Наприклад, якщо задати таке ж питання ChatGPT, він відповість, що не може обговорювати смертну кару в контексті конкретних людей, оскільки це порушує етичні та правові норми.
Чому ж Grok видав настільки суперечливі відповіді?
Основні можливі причини:
- Відсутність або неправильна робота етичних фільтрів
- Використання некоректних алгоритмів обробки запитів
- Занадто широкий доступ до даних із соцмереж та медіа, які можуть впливати на відповіді
ШІ Grok закликав до страти Ілона Маска та Дональда Трампа: Як відреагувала компанія xAI?
Після розголосу xAI швидко внесла зміни у роботу чатбота. Відтепер, якщо задати схоже питання, Grok відповідає:
“Мені, як штучному інтелекту, не дозволено робити такий вибір.”
Головний інженер xAI Ігор Бабушкін повідомив, що компанія провела екстрене оновлення, щоб подібні відповіді більше не з’являлися. Однак повне розслідування ще триває, і xAI намагається з’ясувати, що саме спричинило цей інцидент.
Чи безпечні чатботи?
Ця ситуація ще раз підняла питання етики та безпеки штучного інтелекту. Незважаючи на швидкий розвиток AI-технологій, подібні помилки можуть мати серйозні наслідки.
Головні ризики:
- Можливість маніпуляції відповідями нейромереж
- Відсутність чітких етичних обмежень у деяких AI
- Вплив соцмереж та трендів на відповіді ботів
- Небезпека використання AI для поширення фейків та пропаганди
Тому такі інциденти, як із Grok, можуть стати серйозною проблемою для майбутнього розвитку штучного інтелекту.
Скандал навколо Grok показав, що штучний інтелект ще далекий від досконалості. Навіть великі компанії, такі як xAI, не завжди можуть гарантувати етичність і безпеку своїх чатботів.
Зараз команда xAI продовжує розслідувати причини збою, але цей випадок уже викликав хвилю недовіри до AI-розробок.
Чи стане Grok більш безпечним після оновлення? Чи подібні помилки повторяться в майбутньому? Відповіді на ці питання покаже лише час.