- Главная
- /
- NFT
- /
- OpenAI создает Экспертный Совет для изучения влияния ИИ на психическое здоровье пользователей
OpenAI создает Экспертный Совет для изучения влияния ИИ на психическое здоровье пользователей
6
OpenAI объявила во вторник, что сформировала Экспертный Совет по благополучию и искусственному интеллекту, группа академиков и лидеров некоммерческих организаций, задача которой - помочь компании понять, как ее продукты влияют на психическое здоровье.
“Их роль состоит в том, чтобы советовать нам, задавать вопросы и помогать определить, как должны выглядеть здоровые взаимодействия с искусственным интеллектом для всех возрастов,” - говорится в заявлении компании.
В состав восьмимемного совета входят исследователи из Гарварда, Стэнфорда, Оксфорда и других учебных заведений, которые помогут разработать рекомендации.
“Наша работа с советом будет включать регулярные проверки нашего подхода и периодические встречи для обсуждения тем, таких как поведение AI в сложных или чувствительных ситуациях и какие механизмы поддержки могут лучше всего помочь людям, использующим ChatGPT,” добавила OpenAI. Познакомьтесь с восемью членами Экспертного Совета по благополучию и искусственному интеллекту и узнайте, как мы будем работать вместе.Ссылка.
OpenAI и другие компании искусственного интеллекта столкнулись с растущим давлением по поводу того, как технология влияет на пользователей, особенно на детей. Компания, наряду с другими участниками отрасли, столкнулась с исками от родителей, утверждающих, что разговоры с AI способствовали самоубийствам подростков, что побудило OpenAI ввести родительский контроль ранее в этом году. Другие обвиняли зависимость от чат-ботов в разрушении отношений и увеличении социальной изоляции.
Создание совета по благополучию после давления общественности подчеркивает продолжающуюся проблему в технологическом секторе, где компании начинают сталкиваться с психологическими и этическими последствиями своих продуктов только после того, как они уже стали широко доступными. Критикующие говорят, что это привычный цикл: сначала инновации, потом ответственность.
“Это кажется частью обычной схемы - действовать быстро, ломать вещи и пытаться что-то исправить, когда это становится неудобно,” - сказал представитель НПО AlgorithmWatch.
AlgorithmWatch также поставила под сомнение, насколько независимым будет новый совет, отметив историю внутренних конфликтов в OpenAI. “Мы должны помнить, что когда предыдущий совет OpenAI пытался повлиять, выразив недоверие к Сэму Альтману, они все были удалены и заменены,” добавили они.
AlgorithmWatch предложила, что “слегка лучший (но все еще ограниченный) прецедент” может быть Советом по надзору Meta, отметив, что хотя их рекомендации “часто очень медленные и часто игнорируются,” совет предоставляет “четкие рекомендации и достаточно публично, чтобы люди могли видеть, что игнорирует Meta.”
Шади Эль Дамати, соучредитель Holonym и защитник цифровых прав, сказал Decrypt, что ему “иронично”, что те же компании, которые спешат применять самые мощные инструменты AI, теперь позиционируют себя как “моральные арбитры.”
“Но эти разговоры срочны и давно назрели, поэтому я не стану критиковать существование совета. Если уж на то пошло, я надеюсь, что это поднимет планку для всех,” добавил он.
Помимо благополучия, он сказал, что хотел бы, чтобы Совет также рассмотрел вопросы конфиденциальности и идентичности. “По крайней мере, совет должен установить прозрачные и публичные метрики для измерения эмоционального воздействия AI и обязать проводить регулярные независимые аудиты,” сказал он. “Но нам действительно нужны жесткие правила и нормы, которые защищают наши цифровые права, и нам они нужны быстрее, а не позже.”
Экспертный Совет OpenAI “имеет шанс углубиться не только в безопасность,” добавил он. “Они должны задавать вопросы: Какие права имеют люди в цифровых пространствах? Кто владеет их идентичностью, их поведением, их образом? Как на самом деле выглядит человекоцентричный дизайн... не только для детей, но и для всех?”
Возобновленный акцент компании на благополучии также совпал с заявлением CEO Сэма Альтмана о том, что OpenAI также начнет смягчать ограничения, в том числе на контент для взрослых, начиная с декабря.
“Мы сделали ChatGPT довольно ограничительным, чтобы быть осторожными с вопросами психического здоровья,” - написал Альтман в Твиттере в тот же день.
“Мы понимаем, что это сделало его менее полезным/приятным для многих пользователей, у которых не было проблем с психическим здоровьем, но, учитывая серьезность проблемы, мы хотели сделать это правильно.”
Альтман сообщил, что в скором времени проверенные взрослые смогут создавать эротические материалы с использованием ChatGPT, описывая это как часть более широкой концепции “относиться к взрослым пользователям как к взрослым.”
Ожидание токена SEA: когда и как он появится на OpenSea в 2026 году
OpenSea анонсировала токен SEA, ожидаемый в первом квартале 2026 года. 50% от предстоящего предложения будут распределены среди сообщества. Платформа трансформируется от торговли NFT к более широкому рынку. 🚀🪙📈
ФИФА под следствием за продажу билетов на чемпионат мира в формате NFT: уголовная жалоба в Швейцарии
ФИФА столкнулась с уголовной жалобой в Швейцарии из-за своих NFT-билетов на чемпионат мира. Gespa считает, что платформа незаконна и могла предложить азартные услуги без лицензии ⚽💰📉.
Сообщество криптоинвесторов скорбит о смерти соучредителя RTFKT Бенуа Паготто в возрасте 41 года
Сообщество криптоинвесторов mourning смерть соучредителя RTFKT Бенуа Паготто. Его креативность и доброта оставили яркий след. Паготто вдохновил многих на уникальные достижения в криптоиндустрии. 🌟🙏💔🎨💬
Art Blocks запустил аукцион Quine от Larva Labs, продажи превысили $30,000
Аукцион NFT Art Blocks от Larva Labs собрал более $30,000 за коллекцию Quine. Низкая ставка стартовала с 0.3 ETH, и продажи достигли 9.45 ETH. Эрик Сноуфро поблагодарил Larva Labs за вклад в искусство. 🎨💰✨