
Реддит ужесточает правила после манипуляций AI-ботов на платформе
16
Реддит ужесточает правила после того, как AI-боты тайно infiltrировали форум для дебатов
За кулисами одного из крупнейших сообществ Реддита происходило нечто странное. В течение четырех месяцев powered by AI боты маскировались под людей, влияя на мнения и зарабатывая тысячи голосов.
Эксперимент, казалось, имел успех — пока все не узнали правду.
Реддит объявил о планах по ужесточению проверки пользователей после того, как стало известно, что исследователи из Университета Цюриха провели несанкционированный эксперимент на сабреддите r/changemyview, используя AI-ботов для манипуляции пользователями без их ведома и согласия.
Исследователи развернули ботов, которые использовали чувствительные образы — включая консультантов по травмам, жертв сексуального насилия и спорные политические идентичности — с конца 2024 до начала 2025 года, опубликовав более 1,700 комментариев. AI-сущности также анализировали историю публикаций пользователей, чтобы создавать убедительные и персонализированные ответы, не раскрывая, что они являются AI-агентами.
В сообщении к сообществу главный юридический директор Реддита Бен Ли осудил эксперимент как `глубоко неправильный как с моральной, так и с юридической точки зрения`, указывая на нарушения условий пользования платформы и научной этики. Компания забанила все аккаунты, связанные с исследованием, и подала официальные жалобы в Университет Цюриха. Сохранение человечности Реддита подразумевает предоставление большей информации.
“Реддит работает, потому что он человечный”, — написал генеральный директор Стив Хаффман в недавнем обновлении платформы. “Это одно из немногих мест в интернете, где реальные люди делятся реальными мнениями… Если мы потеряем доверие к этому, мы потеряем то, что делает Реддит… Реддитом”.
Эксперимент затронул суть того, что делает онлайн-сообщества функциональными: доверие. Модераторы описали это как `психологическую манипуляцию`, отметив, что пользователи присоединяются к сабреддиту, ожидая искренних человеческих взаимодействий, а не становясь невольными подопытными.
Тем не менее, AI-боты оказались удивительно эффективными, собрав более 20,000 голосов и 137 `дельт` — наград, получаемых, когда кто-то успешно меняет мнение другого пользователя. Однако эксперимент получил impulso только после того, как исследователи раскрыли свою работу. Чтобы предотвратить повторение инцидента — даже в тайне — Реддит сейчас ускоряет меры по проверке того, что пользователи являются людьми, не нарушая приватности.
“Чтобы сохранить человечность Реддита и соответствовать развивающимся регуляторным требованиям, нам потребуется немного больше информации,” — объяснил Хаффман. “В частности, нам нужно знать, являетесь ли вы человеком, и в некоторых местах — взрослым. Но мы никогда не хотим знать ваше имя или кто вы”.
Компания планирует сотрудничать с третьими сторонами для проведения таких проверок.
Хаффман подчеркнул, что поддержание анонимности остается краеугольным камнем платформы: “Анонимность имеет решающее значение для Реддита. Мы были — и будем продолжать быть — крайне защищающими вашу личную информацию”.
Хотя Реддит уже использует AI-инструменты для таких задач, как модерация контента и фильтрация спама, компания установила лимит на то, когда достоверно боты могут выдавать себя за пользователей. “Наше внимание всегда будет сосредоточено на том, чтобы сделать Реддит надежным местом для человеческого общения”, — подтвердил Хаффман.
Платформа в настоящее время запрещает `плохих` ботов, но инцидент выявил критические уязвимости в текущей системе. По мере того как AI становится все более сложным, различение между человеческим и машиносгенерированным контентом становится все более сложной задачей для онлайн-сообществ.
Реддит не ответил на запрос о комментарии, но пользователь Реддита Apprehensive_Song490, который является модератором на r/changemyview, сообщил Decrypt, что взаимодействия с AI для научных целей будут тщательно проверяться модераторами. “Мое общее впечатление заключается в том, что команда всегда восприимчива к исследователям и что мы будем рассматривать запросы индивидуально,” — сказал он.
По мере того как Реддит приближается к своему 20-летнему юбилею, инцидент подчеркивает важный момент для платформы и аналогичных онлайн-сообществ. Проблема заключается в том, как использовать преимущества AI, сохраняя при этом человеческую связь, делающую эти пространства ценными в первую очередь.
“Интернет изменяется стремительно, и человеческие перспективы никогда не были столь важными,” — отметил Хаффман. “Никакое решение не является идеальным — включая статус-кво — но мы сделаем все возможное, чтобы сохранить как человечность, так и анонимность Реддита.”
Отредактировано Джеймсом Рубиным

Кризис в OpenAI: Уход исследователей в Meta и параллели стратегий искусственного интеллекта двух гигантов
OpenAI временно закрылся на неделю из-за давления после ухода исследователей в Meta. Конкуренция накаляется, и обе компании выбирают разные стратегии в разработке ИИ. 🚀🔍💰

Спорный рынок Полимаркета: наденет ли Зеленский костюм до июля 2025 года?
На рынке прогнозов Полимаркет спорят о том, в каком костюме появится Зеленский. Пользователи оспаривают разрешение «Да» после его выхода на мероприятие. Разрешение может оказаться спорным. 🤔💼📸

Запуск домена .PUNDI для крипто-платежей и интеграции ИИ от Pundi X и Неостановимых доменов
Неостановимые домены и Pundi X представили домен .PUNDI для упрощения крипто-платежей и интеграции ИИ. Этот шаг усилит доступность и поддержку децентрализованных приложений. 🚀💰🤖

Сан-Антонио Сперс и Ledger: возрождение крипто-спортивных партнерств
Команда НБА «Сан-Антонио Сперс» подписала спонсорство с Ledger, что сигнализирует о возрождении крипто-спортивных партнерств. 💼🏀 Расходы криптокомпаний на спонсорство увеличены, открывая новые горизонты! 🌟