Главная опасность ИИ — не в том, что что-то может пойти не так, а в том, как быстро это происходит. Исторически человек в цепочке принятия решений был своеобразным предохранителем — тем, что замедляло процессы достаточно, чтобы в нужный момент включилось суждение. Агентный ИИ этот предохранитель убирает полностью.Одни только последствия для наступательных кибератак должны заставить любой совет директоров насторожиться. Прежде экономика сдерживала злоумышленников от автоматизации атак в полном объёме: это попросту было невыгодно. Машинное обучение снимает это ограничение. Когда ИИ-системы взаимодействуют друг с другом за пределами контролируемой среды и что-то идёт не так на скорости машины — остановить это может оказаться невозможным. Непредвиденные последствия этой технологии, о которых мы ещё даже не начали думать, не будут развиваться медленно.

На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить