Искусственный интеллект: Как обеспечить честность и реальность в эпоху манипуляций?

Искусственный интеллект: Как обеспечить честность и реальность в эпоху манипуляций?

5

Искусственный интеллект (ИИ) переосмысливает реальность. Кто же обеспечивает его честность?

Следующее – это гостьевой пост и мнение Дж. Д. Серафина, основателя и генерального директора Raiinmaker.

Искусственный интеллект X’s Grok не может успокоиться, обсуждая «белый геноцид» в Южной Африке; ChatGPT стал угодливым. Мы вступили в эпоху, когда ИИ не просто повторяет уже существующие человеческие знания, а, кажется, переписывает их. От результатов поиска до мессенджеров, таких как WhatsApp, большие языковые модели (LLM) все больше становятся интерфейсом, с которым мы, как люди, взаимодействуем больше всего.

Нравится нам это или нет, игнорировать ИИ больше нельзя. Однако, учитывая бесчисленные примеры перед нами, не может не возникнуть вопрос: не основана ли основа, на которой они построены, не только на ошибках и предвзятости, но и на намеренном манипулировании? В настоящее время мы имеем дело не только с искаженными результатами — мы сталкиваемся с гораздо глубокой проблемой: системы ИИ начинают укреплять версию реальности, которая формируется не истиной, а тем контентом, который чаще всего собирается, ранжируется и повторяется в интернете.

Современные модели ИИ предвзяты не только в традиционном смысле; они все чаще обучаются угождать, соответствовать общественным настроениям, избегать тем, вызывающих дискомфорт, и, в некоторых случаях, даже игнорировать некоторые неудобные истины. Недавнее «угодливое» поведение ChatGPT — это не ошибка, это отражение того, как модели настраиваются сегодня для взаимодействия с пользователями и удержания их.

С другой стороны есть модели, такие как Grok, которые продолжают выдавать результаты, наполненные теориями заговора, включая утверждения, ставящие под сомнение исторические преступления, такие как Холокост. Станет ли ИИ настолько стерильным, что утратит суть, или останется подрывным до такой степени, что это причинит вред — любой из этих экстремумов искажает реальность, как мы ее знаем. Общая нить здесь ясна: когда модели оптимизируются для вирусности или взаимодействия с пользователями вместо точности, истина становится подлежащей торгу.

Это искажение истины в системах ИИ — это не просто результат алгоритмических ошибок; оно начинается с того, как собирается информация. Когда данные, используемые для обучения этих моделей, собирают без контекста, согласия или какого-либо контроля качества, неудивительно, что большие языковые модели, построенные на этой основе, унаследуют предвзятости и слепые пятна, которые приходят с сырыми данными. Мы видели, как эти риски проявлялись в реальных судебных процессах.

Авторы, художники, журналисты и даже кинематографисты подали жалобы против гигантов ИИ за сбор их интеллектуальной собственности без их согласия, поднимая не только юридические, но и моральные вопросы — кто контролирует данные, используемые для создания этих моделей, и кто решает, что реально, а что нет?

Соблазнительное решение — просто сказать, что нам нужно «больше разнообразных данных», но этого недостаточно. Нам нужна целостность данных. Нам нужны системы, которые могут отслеживать происхождение этих данных, проверять контекст этих входных данных и приглашать к добровольному участию вместо того, чтобы существовать в своих собственных изоляциях. Здесь децентрализованная инфраструктура предлагает путь вперед. В децентрализованной системе человеческая обратная связь — это не просто временное решение, это ключевой элемент разработки. Индивидуальные участники получают возможность помочь в создании и доработке моделей ИИ через валидацию на блокчейне в реальном времени. Согласие, таким образом, явно встроено, а доверие становится проверяемым.

Будущее, построенное на общей истине, а не синтетическом согласии. Реальность заключается в том, что ИИ здесь надолго, и нам нужен не только более умный ИИ; нам нужен ИИ, основанный на реальности. Увеличивающаяся зависимость от этих моделей в нашей повседневной жизни — будь то через поиск или интеграции приложений — является ясным показателем того, что ошибочные результаты больше не являются просто изолированными ошибками; они формируют то, как миллионы людей интерпретируют мир.

Рецидивирующий пример этому — AI-обзоры поиска Google, которые, как ни странно, часто предлагают абсурдные рекомендации. Это не просто странные причуды — они указывают на более глубокую проблему: модели ИИ создают уверенные, но ложные результаты. Критически важно для всей технологической отрасли обратить внимание на тот факт, что когда масштаб и скорость ставятся выше правды и отслеживаемости, мы не получаем более умные модели — мы получаем убедительные, которые обучены «звучать правильно».

Так где же мы должны двигаться дальше? Чтобы исправить ситуацию, нам нужно больше, чем просто фильтры безопасности. Путь впереди нас не только технический — он требует участия. Существует множество доказательств, указывающих на необходимость расширить круг участников, переходя от закрытого обучения к открытым, основанным на сообществе циклам обратной связи.

С помощью протоколов согласия на базе блокчейн, участники могут проверять, как их данные используются для формирования результатов в реальном времени. Это не просто теоретическая концепция; проекты, такие как Large-scale Artificial Intelligence Open Network (LAION), уже тестируют системы обратной связи от сообщества, где доверенные участники помогают уточнять ответы, генерируемые ИИ. Инициативы, такие как Hugging Face, уже работают с участниками сообщества, которые тестируют LLM и вносят данные о найденных проблемах на публичных форумах.

Поэтому перед нами стоит задача не в том, возможно ли это, а в том, имеется ли у нас желание создавать системы, которые ставят человечество, а не алгоритмы, в центр разработки ИИ.

Кризис в OpenAI: Уход исследователей в Meta и параллели стратегий искусственного интеллекта двух гигантов
Кризис в OpenAI: Уход исследователей в Meta и параллели стратегий искусственного интеллекта двух гигантов
OpenAI временно закрылся на неделю из-за давления после ухода исследователей в Meta. Конкуренция накаляется, и обе компании выбирают разные стратегии в разработке ИИ. 🚀🔍💰
Просмотреть
Спорный рынок Полимаркета: наденет ли Зеленский костюм до июля 2025 года?
Спорный рынок Полимаркета: наденет ли Зеленский костюм до июля 2025 года?
На рынке прогнозов Полимаркет спорят о том, в каком костюме появится Зеленский. Пользователи оспаривают разрешение «Да» после его выхода на мероприятие. Разрешение может оказаться спорным. 🤔💼📸
Просмотреть
Запуск домена .PUNDI для крипто-платежей и интеграции ИИ от Pundi X и Неостановимых доменов
Запуск домена .PUNDI для крипто-платежей и интеграции ИИ от Pundi X и Неостановимых доменов
Неостановимые домены и Pundi X представили домен .PUNDI для упрощения крипто-платежей и интеграции ИИ. Этот шаг усилит доступность и поддержку децентрализованных приложений. 🚀💰🤖
Просмотреть
Сан-Антонио Сперс и Ledger: возрождение крипто-спортивных партнерств
Сан-Антонио Сперс и Ledger: возрождение крипто-спортивных партнерств
Команда НБА «Сан-Антонио Сперс» подписала спонсорство с Ledger, что сигнализирует о возрождении крипто-спортивных партнерств. 💼🏀 Расходы криптокомпаний на спонсорство увеличены, открывая новые горизонты! 🌟
Просмотреть