Цікава історія сталася з OpenAI і Пентагоном. Сем Альтман, генеральний директор компанії, несподівано визнав, що угода виглядала досить опортуністично і недбало. Чесно кажучи, рідко бачиш, коли лідер великої корпорації так відкрито визнає недоліки у своїх рішеннях.



Загалом, проблема полягала в тому, що технологія штучного інтелекту OpenAI могла бути використана для внутрішнього спостереження або розвідувальними агентствами на кшталт АНБ. Зрозуміло, що це викликало хвилю критики і занепокоєнь у спільноті. Недоліки в умовах контракту виявилися серйознішими, ніж здавалося на перший погляд.

Що зробила OpenAI? Ввела нові положення у угоду, щоб захистити свої технології від потенційного неправомірного використання. По суті, це спроба закрити ті самі недоліки, які дозволили б державним органам використовувати ШІ для спостереження.

Це цікавий поворот у історії взаємодії Big Tech із державою. Компанія зіткнулася з етичними питаннями і вирішила взяти відповідальність. Хоча, звичайно, залишається питання: чому ці недоліки не були передбачені з самого початку? У будь-якому разі, крок у напрямку відповідального використання ШІ у державних контрактах — це те, що потрібно.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити