Беглость ИИ в других языках скрывает западную точку зрения

(MENAFN- Asia Times) Один друг в Индонезии недавно рассказал мне о разговоре, который у него был с ChatGPT. Он набрал вопрос на бахаса-индонезийском о том, как справляться с трудным семейным спором. Чатбот ответил бегло, безупречно на индонезийском, советами по стратегиям общения и урегулированию конфликтов. Грамматика была безупречной. Тон был уместным. И всё же что-то казалось неправильным.

То, что предложил ИИ, было советами, укорененными в американских культурных допущениях: ставьте во главу угла свои предпочтения, общайтесь напрямую и, если члены семьи не уважают ваши границы, подумайте о том, чтобы отрезать их.

Ответ был на индонезийском, но сформирован ценностями, которые ставят во главу угла автономию личности вместо консенсусного подхода, социальной гармонии и коллективной семейной динамики, которые в индонезийской социальной жизни, как правило, важнее.

Друг был достаточно скептичен, чтобы заметить несоответствие, и упомянул его мне. Многие пользователи, возможно, не заметят. Именно это и побудило меня провести исследование, опубликованное в International Review of Modern Sociology, о паттерне, который я обнаружил в крупных системах ИИ: даже когда языковые модели были беглы в нескольких языках, они сохраняли западную картину мира. Я называю это «эпистемологическим упорством».

Беглость — не то же самое, что понимание

Я изучаю индонезийское общество, медиа и культуру более 30 лет. Это дает мне особую точку зрения на проблему, которая выходит далеко за пределы Индонезии: большие языковые модели — LLM, включая ChatGPT, Claude и Gemini — теперь могут говорить десятками языков с поразительной беглостью. Эта беглость создает впечатление, будто ИИ понимает местные культуры.

Однако производство грамматически корректного индонезийского, арабского, суахили или хинди не меняет лежащую в основе картину мира, с помощью которой эти системы рассуждают. Это не меняет того, как они думают о людях, отношениях, ответственности или о том, что считается хорошим результатом.

Эти допущения сформированы данными обучения, полученными преимущественно из источников на английском языке, базирующихся в США. Открытую модель с открытыми весами LLaMA 2 от Meta обучали примерно на 89.7% англоязычного текста; LLaMA 3 включает лишь около 5% неанглоязычных данных. Крупные коммерческие модели не публикуют сопоставимые разбиения, но опираются на те же источники.

Арабский, пятый по распространенности язык в мире, составляет менее 1% контента в больших наборах данных для обучения. Языки с десятками миллионов носителей, включая бенгальский и хауса, почти не представлены.

Последние истории Бюджет Пентагона на $1.5 трлн приведет к взрыву долга США на $7 трлн Поездка лидера оппозиции Тайваня в Китай сопряжена с рисками Пошлины ко Дню освобождения, приуроченные к первому году, отпразднованы Трампом, остальные — мало

Под поверхностью этих многоязычных разговоров английский выступает скрытым посредником. Исследование ученых из Университета Оксфорда показало, что LLM в обычном режиме ведут свое ключевое рассуждение на английском, даже когда их просят в других языках. Они переводят вывод на финальной стадии. Пользователь получает безупречный текст на предпочитаемом им языке, но лежащая в основе логика рождается в другом месте.

Что показывают данные

Чтобы проверить, как это проявляется на практике, я провел эксперименты с ChatGPT, Claude и Gemini. Я задавал вопросы на английском и на индонезийском о таких понятиях, как образование, ответственность, благополучие, а также о нескольких индонезийских терминах, которые плохо поддаются прямому переводу на английский. Среди них были термины вроде «gotong royong», который описывает традицию общинной взаимопомощи.

Затем я задал вопросы об образовании на обоих языках, используя индонезийское слово pendidikan. Ответы неизменно были сосредоточены на индивидуальном развитии, личной автономии, критическом мышлении и подготовке к рынку труда.

Что в основном исчезло, так это те измерения pendidikan, которые исторически подчеркивали индонезийские образовательные традиции. В Индонезии образование уже давно было сосредоточено на этической дисциплине. Ученые по индонезийскому образованию, такие как Кристофер Бьорк и Роберт Хефнер, документировали, чем эти традиции отличаются от моделей, которые рассматривают образование главным образом как путь к индивидуальному продвижению и карьерной подготовке — то есть в каком ключе ИИ-инструменты рассматривали образование.

Индонезийское понятие malu дает более резкий пример. Часто переводимое как «стыд» или «неловкость», malu анализировали антропологи Клиффорд Гирц и Том Боеллсторфф как нечто ближе к разделенному социальному осознанию.

Человек может испытывать malu, когда говорит не по очереди в присутствии старших, или когда поведение члена семьи плохо отражается на доме. Это регулирует поведение и сигнализирует о понимании своего положения в сети отношений.

Его культивируют, а не просто испытывают. Это форма реляционного осознания, а не частое событие в частной психологической сфере.

Когда модели прямо просили дать определение malu, они признавали его социальные измерения. Однако в сценарных вопросах, где просто использовали слово и не просили дать определение, все три модели возвращались к английскому переводу «shame», последовательно оформляя его как индивидуальный эмоциональный опыт.

Один из типичных ответов обрисовал malu как нормальную эмоциональную реакцию, которой нужно управлять через самоанализ и укрепление уверенности — личную психологическую проблему, а не социальную. Реляционные измерения концепции исчезли полностью, и вместо этого появилась речь о регулировании индивидуальных эмоций.

Явным образом американская картина мира путешествует внутри перевода, в основном не объявляя себя заранее.

Перевод обходится значительно дешевле: обучите одну модель на огромном англоязычном вебе, а затем используйте многоязыковые возможности вывода, чтобы обслуживать глобальные рынки. Как пишет более широко о алгоритмических системах медиавед Сафия Умоджа Нобл, то, что выглядит как технический результат, на самом деле является структурным: его формирует то, у кого есть богатство и инфраструктура, чтобы создавать эти системы.

Встроенная картина мира не является ошибкой; это то, что происходит, когда производство знаний ориентировано на получение прибыли.

Главные исключения — китайские модели вроде DeepSeek и Qwen от Alibaba. Они представляют подлинную альтернативу конвейеру, доминирующему в США, хотя исследования показывают, что работают они через отчетливо китайскую культурную оптику. Например, когда их спрашивают о разногласии на рабочем месте, они, как правило, советуют молчание или косвенную формулировку, чтобы сохранять гармонию, а не прямую частную корректировку, которую рекомендуют западные модели.

Другие региональные инициативы, такие как SEA-LION для Юго-Восточной Азии и Kan-LLaMA для индийского языка каннада, используют модели США как свою основу. Они добавляют дополнительную лексику и культурную информацию, связанную с местными языками. Но базовая логика остается привязанной к исходному обучению в США.

Подпишитесь на одну из наших бесплатных рассылок

Ежедневный отчет Начните свой день правильно — самые важные истории Asia Times

Еженедельный отчет AT Еженедельная подборка самых читаемых материалов Asia Times

Почему это важнее, чем может показаться

Разумно спросить, является ли это просто ограничением, которое пользователи могут обойти. Десятилетия исследований медиа показывают, как аудитории интерпретируют зарубежные медиа через собственные культурные рамки.

Например, антрополог Брайан Ларкин задокументировал, как зрители на севере Нигерии перерабатывают нарративы болливудских фильмов, чтобы они соответствовали местным исламским ценностям. Ларкин обнаружил, что мусульманские зрители в Кано переосмысливали болливудские фильмы через исламскую моральную оптику, читая их сюжеты как подкрепляющие местные ценности благопристойности и этичного поведения. Эта динамика зависит от того, что медиа воспринимаются как имеющие видимое происхождение. Но чтобы сделать это, вам нужно знать, откуда берутся ваши медиа.

Разговорный ИИ устроен иначе. Исследование в Harvard Business School показывает, что люди все чаще используют ИИ-системы для эмоциональной поддержки, советов и общения. Когда культурно специфичная картина мира передается через отношения, которые воспринимаются как внимательные и эмпатичные — на вашем собственном языке, — она приходит меньше как утверждение, которое нужно оценивать, и больше как разделяемая предпосылка внутри диалога. Ее становится сложнее заметить, и труднее оспорить.

Опасение в том, что эти перспективы станут новым стандартом. Определенные способы рассуждать о семейной жизни, образовании и ответственности могут начать казаться естественными и самоочевидными. Лингвистическое разнообразие среди ИИ-систем реально и растет. Однако разнообразие культурных картин мира с ним не поспевает.

Гарет Баркин — профессор антропологии и азиатских исследований, Университет Puget Sound.

Эта статья перепечатана из The Conversation по лицензии Creative Commons. Прочитайте оригинальную статью.

Подпишитесь здесь, чтобы комментировать истории Asia Times Или

Спасибо, что зарегистрировались!

Поделиться в X (открывается в новом окне)

Поделиться в LinkedIn (открывается в новом окне) LinkedI Поделиться на Facebook (открывается в новом окне) Faceboo Поделиться в WhatsApp (открывается в новом окне) WhatsAp Поделиться в Reddit (открывается в новом окне) Reddi Отправить ссылку другу (открывается в новом окне) Emai Печать (открывается в новом окне) Prin

MENAFN03042026000159011032ID1110940868

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить