Творець ChatGPT, компанія OpenAI, опублікувала останні рекомендації для оцінки «катастрофічних ризиків», пов’язаних із штучним інтелектом у поточних розробках, повідомляє Barron’s.

Компанія OpenAI (unsplash)
Компанія OpenAI (unsplash)

У нещодавно опублікованій «Рамці готовності» OpenAI вважає, що науковий огляд катастрофічних ризиків штучного інтелекту був неадекватним, і прагне подолати цю прогалину через окреслену структуру.

«Ми вважаємо, що наукове дослідження катастрофічних ризиків від штучного інтелекту далеко не досягло того, що нам потрібно», — йдеться в заяві.

Команда моніторингу оцінить «передові моделі» з можливостями, які перевершують поточне передове програмне забезпечення ШІ. Кожна модель буде оцінена та буде призначено рівень ризику від «низького» до «критичного» за чотирма ключовими категоріями.

Перша категорія досліджує кібербезпеку, зокрема потенціал моделі для управління великомасштабними кібератаками.

Другий оцінює ймовірність того, що програмне забезпечення сприятиме створенню шкідливих речовин, таких як хімічні суміші, організми (наприклад, віруси) або ядерна зброя.

Третя категорія стосується переконливого впливу моделі, вимірювання її здатності впливати на поведінку людини.

Остання категорія аналізує автономію моделі, особливо її потенціал перевершити контроль її творців.

Моделі з показником ризику, що перевищує “середній”, не можуть бути розгорнуті відповідно до структури. Ризики будуть передані до новоствореної консультативної групи з питань безпеки в OpenAI. Голова OpenAI остаточно вирішить будь-які необхідні коригування для зменшення ризиків.

Ризики, які створює ШІ

Ці рамки створені після тимчасового усунення та наступного повторного призначення генерального директора Сема Альтмана. Під час скандалу 514 із 700 співробітників OpenAI , які створили ChatGPT, погрожували звільненням, вимагаючи відновлення Альтмана на посаді та закликали до відставки членів правління.

OpenAI створює рекомендації для оцінки потенційних «катастрофічних» ризиків ШІСем Альтман (Getty Images)

ЗМІ повідомляють, що Альтман зіткнувся з критикою з боку членів правління за те, що він віддав пріоритет швидкому оновленню OpenAI, потенційно ігноруючи занепокоєння щодо ризиків, які створює ця технологія.

Джерело: https://newsukraine.rbc.ua/news/openai-makes-guidelines-to-assess-potential-1703000440.html

Олена Василенко

Від Олена Василенко

Редакторка і автор новин та статей на проекті "Топові Новини"