- Главная
- /
- Другое
- /
- Искусственный интеллект: Как обеспечить честность и реальность в эпоху манипуляций?

Искусственный интеллект: Как обеспечить честность и реальность в эпоху манипуляций?
16
Искусственный интеллект (ИИ) переосмысливает реальность. Кто же обеспечивает его честность?
Следующее – это гостьевой пост и мнение Дж. Д. Серафина, основателя и генерального директора Raiinmaker.
Искусственный интеллект X’s Grok не может успокоиться, обсуждая «белый геноцид» в Южной Африке; ChatGPT стал угодливым. Мы вступили в эпоху, когда ИИ не просто повторяет уже существующие человеческие знания, а, кажется, переписывает их. От результатов поиска до мессенджеров, таких как WhatsApp, большие языковые модели (LLM) все больше становятся интерфейсом, с которым мы, как люди, взаимодействуем больше всего.
Нравится нам это или нет, игнорировать ИИ больше нельзя. Однако, учитывая бесчисленные примеры перед нами, не может не возникнуть вопрос: не основана ли основа, на которой они построены, не только на ошибках и предвзятости, но и на намеренном манипулировании? В настоящее время мы имеем дело не только с искаженными результатами — мы сталкиваемся с гораздо глубокой проблемой: системы ИИ начинают укреплять версию реальности, которая формируется не истиной, а тем контентом, который чаще всего собирается, ранжируется и повторяется в интернете.
Современные модели ИИ предвзяты не только в традиционном смысле; они все чаще обучаются угождать, соответствовать общественным настроениям, избегать тем, вызывающих дискомфорт, и, в некоторых случаях, даже игнорировать некоторые неудобные истины. Недавнее «угодливое» поведение ChatGPT — это не ошибка, это отражение того, как модели настраиваются сегодня для взаимодействия с пользователями и удержания их.
С другой стороны есть модели, такие как Grok, которые продолжают выдавать результаты, наполненные теориями заговора, включая утверждения, ставящие под сомнение исторические преступления, такие как Холокост. Станет ли ИИ настолько стерильным, что утратит суть, или останется подрывным до такой степени, что это причинит вред — любой из этих экстремумов искажает реальность, как мы ее знаем. Общая нить здесь ясна: когда модели оптимизируются для вирусности или взаимодействия с пользователями вместо точности, истина становится подлежащей торгу.
Это искажение истины в системах ИИ — это не просто результат алгоритмических ошибок; оно начинается с того, как собирается информация. Когда данные, используемые для обучения этих моделей, собирают без контекста, согласия или какого-либо контроля качества, неудивительно, что большие языковые модели, построенные на этой основе, унаследуют предвзятости и слепые пятна, которые приходят с сырыми данными. Мы видели, как эти риски проявлялись в реальных судебных процессах.
Авторы, художники, журналисты и даже кинематографисты подали жалобы против гигантов ИИ за сбор их интеллектуальной собственности без их согласия, поднимая не только юридические, но и моральные вопросы — кто контролирует данные, используемые для создания этих моделей, и кто решает, что реально, а что нет?
Соблазнительное решение — просто сказать, что нам нужно «больше разнообразных данных», но этого недостаточно. Нам нужна целостность данных. Нам нужны системы, которые могут отслеживать происхождение этих данных, проверять контекст этих входных данных и приглашать к добровольному участию вместо того, чтобы существовать в своих собственных изоляциях. Здесь децентрализованная инфраструктура предлагает путь вперед. В децентрализованной системе человеческая обратная связь — это не просто временное решение, это ключевой элемент разработки. Индивидуальные участники получают возможность помочь в создании и доработке моделей ИИ через валидацию на блокчейне в реальном времени. Согласие, таким образом, явно встроено, а доверие становится проверяемым.
Будущее, построенное на общей истине, а не синтетическом согласии. Реальность заключается в том, что ИИ здесь надолго, и нам нужен не только более умный ИИ; нам нужен ИИ, основанный на реальности. Увеличивающаяся зависимость от этих моделей в нашей повседневной жизни — будь то через поиск или интеграции приложений — является ясным показателем того, что ошибочные результаты больше не являются просто изолированными ошибками; они формируют то, как миллионы людей интерпретируют мир.
Рецидивирующий пример этому — AI-обзоры поиска Google, которые, как ни странно, часто предлагают абсурдные рекомендации. Это не просто странные причуды — они указывают на более глубокую проблему: модели ИИ создают уверенные, но ложные результаты. Критически важно для всей технологической отрасли обратить внимание на тот факт, что когда масштаб и скорость ставятся выше правды и отслеживаемости, мы не получаем более умные модели — мы получаем убедительные, которые обучены «звучать правильно».
Так где же мы должны двигаться дальше? Чтобы исправить ситуацию, нам нужно больше, чем просто фильтры безопасности. Путь впереди нас не только технический — он требует участия. Существует множество доказательств, указывающих на необходимость расширить круг участников, переходя от закрытого обучения к открытым, основанным на сообществе циклам обратной связи.
С помощью протоколов согласия на базе блокчейн, участники могут проверять, как их данные используются для формирования результатов в реальном времени. Это не просто теоретическая концепция; проекты, такие как Large-scale Artificial Intelligence Open Network (LAION), уже тестируют системы обратной связи от сообщества, где доверенные участники помогают уточнять ответы, генерируемые ИИ. Инициативы, такие как Hugging Face, уже работают с участниками сообщества, которые тестируют LLM и вносят данные о найденных проблемах на публичных форумах.
Поэтому перед нами стоит задача не в том, возможно ли это, а в том, имеется ли у нас желание создавать системы, которые ставят человечество, а не алгоритмы, в центр разработки ИИ.

Трамп опубликовал список кандидатов на замену главы ФРС, это может повлиять на крипторынок
Трамп назвал кандидатов на замену главе ФРС Пауэллу перед важным заседанием. Это может повлиять на крипторынок. 📉💰🇺🇸⚖️🚀

Индонезийская бизнес-группа Indomobil запускает блокчейн-программу для 50 000 студентов совместно с фондом Space and Time
Indomobil Group сотрудничает с Space and Time для запуска блокчейн-программы обучения в Индонезии, охватившей 50 000 студентов. ✅📚 Токен SXT используется для подтверждения курсов. 💡🔗✨

UX как ключ к массовому принятию web3: почему удобство использования важно для самозащиты в криптомире
В статье говорится о важности UX для принятия криптовалют в эпоху после краха FTX. Пользователи стремятся к самозащите, нуждаясь в интуитивных и безопасных инструментах. 🛠️🔒🚀

Слухи о смерти Трампа породили ставку на 1,6 миллиона долларов на прогнозных рынках
Слухи о смерти Трампа спровоцировали ставки на 1,6 млн долларов на прогнозных рынках. Спекуляции о его состоянии привели к росту азартных игр, несмотря на его опровергнутые слухи. 🤔💰📈