Спільнота ставить під сумнів наявність ідеологічних упереджень у провідних ШІ, що викликає обговорення «зміщення під час навчання»

robot
Генерація анотацій у процесі

BlockBeats повідомляє, 4 травня користувач AI-спільноти «X Freeze» опублікував статтю, в якій стверджується, що провідні моделі штучного інтелекту, такі як ChatGPT, Claude та Gemini, у питаннях статі, імміграції, злочинності та інших тем «менше підтримують консервативні позиції», і ставить під сумнів можливу системну схильність їх ціннісних орієнтацій.

Ця точка зору вважає, що з швидким зростанням можливостей AI, процес «вирівнювання цінностей» (alignment) може бути впливом тренувальних даних та механізмів дизайну, що призводить до прояву послідовної тенденції у деяких суспільних питаннях. Відповідні висловлювання викликали в спільноті дискусії щодо «упередженості тренувальних даних» та «напрямку дизайну моделей».

Наразі провідні організації з розробки AI загалом заявляють, що метою тренування їхніх моделей є підвищення точності та безпеки інформації, а також зменшення упереджень через використання різноманітних даних та механізмів оцінки, але суперечки щодо нейтральності цінностей AI залишаються актуальними.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити