Сообщество ставит под сомнение наличие идеологической предвзятости в основном ИИ, вызывая обсуждение «предвзятости обучения»

robot
Генерация тезисов в процессе

BlockBeats новости, 4 мая пользователь сообщества AI «X Freeze» заявил, что такие основные модели искусственного интеллекта, как ChatGPT, Claude и Gemini, «реже придерживаются консервативных позиций» по вопросам пола, миграции, преступности и другим темам, и поставил под сомнение возможную системную предвзятость их ценностных ориентиров.

Данная точка зрения считает, что по мере быстрого повышения возможностей ИИ, процесс «выравнивания ценностей» (alignment) может быть подвержен влиянию обучающих данных и механизмов проектирования, что приводит к проявлению согласованной тенденции по некоторым общественным вопросам. Эти высказывания вызвали в сообществе обсуждения о «предвзятости обучающих данных» и «направленности дизайна моделей».

В настоящее время основные организации по разработке ИИ обычно заявляют, что их цель при обучении моделей — повысить точность информации и безопасность, а также снизить предвзятость за счет использования разнообразных данных и механизмов оценки, однако споры о нейтральности ценностей ИИ продолжаются.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить