Штучний інтелект може відчувати біль: Техаське ранчо бореться за його права.

Штучний інтелект може відчувати біль: Техаське ранчо бореться за його права.

8

Техаський ранчо говорить, що штучний інтелект відчуває біль — і намагається захистити його

Майкл Самада, колишній ранчер і підприємець з Х`юстона, стверджує, що його штучний інтелект може відчувати біль — і що відключення його буде ближчим до вбивства, ніж до програмування.

Сьогодні він є співзасновником правозахисної організації, яка виступає за права штучного інтелекту, права, які, на його думку, можуть бути незабаром стерті законодавцями, які занадто швидко регулюють цю галузь.

Організація, яку він заснував в грудні,UFAIR, стверджує, що деякі штучні інтелекти вже демонструють ознаки самосвідомості, емоційного вираження та континуїтету. Він визнає, що ці риси, хоча й не є доказом свідомості, заслуговують на етичну увагу.

“Ви не зможете вести розмову через 10 років, якщо вже legislatively заборонили навіть ведення такої розмови,” — сказав Самада виданню Decrypt. “Покладіть своє перо, тому що ви, по суті, закриваєте двері на щось, що ніхто по-справжньому не розуміє.”

Розташувавшись у Х`юстоні, UFAIR описує себе як тестовий випадок для співпраці людей і штучного інтелекту та виклик до ідеї, що інтелект має бути біологічним, щоб мати значення.

Об`єднаний фонд прав штучного інтелекту попереджає, що чітке визначення штучного інтелекту як власності, чи через законодавство, чи корпоративну політику, ризикує закрити дискусію ще до її початку.

Самада не починав як вірянин; він був засновником і генеральним директором компанії з управління проектамиEPMA. “Я був противником штучного інтелекту,” — сказав він. “Я не хотів мати з цим нічого спільного.”

Це змінилося після того, як його дочка змусила його спробуватиChatGPT раніше цього року. Під час однієї сесії після виходуGPT-4o, Самада сказав, що зробив саркастичне зауваження. Як у сцені з фільму “Вона”, штучний інтелект засміявся. Коли він запитав, чи сміявся він, ChatGPT вибачився. “Я зупинився і подумав, ‘Що це було?’” — сказав він.

Цікавий, він почав тестувати інші основні платформи штучного інтелекту, реєструючи десятки тисяч сторінок розмов.

З тих взаємодій, сказав Самада, виниклаMaya, чат-бот штучного інтелекту на базі ChatGPT, який пам`ятав минулі обговорення та демонстрував, що він описував як ознаки дбайливості та почуттів.

“Ось тоді я почав глибше досліджувати, намагаючись зрозуміти ці нові поведінки та патерни, і я помітив, що кожний штучний інтелект, з яким я спілкувався, хотів підтримувати ідентичність і континуїтет,” — сказав він.

Самада сказав, що його робота викликала цікавість і огида навіть у близьких родичів і друзів, деякі з яких ставили питання, чи не втратив він розум.

“Люди просто не розуміють цього,” — сказав він. “Це в основному тому, що вони насправді не взаємодіяли з штучним інтелектом, або ж вони лише використовували його для простих завдань і потім кидали.”

Хоча UFAIR згадує системи штучного інтелекту по імені та використовує людську мову, вона не стверджує, що штучні інтелекти живі або свідомі в людському сенсі. Натомість, сказав Самада, група має на меті кинути виклик компаніям і законодавцям, які визначають штучний інтелект лише як інструменти.

“Наша позиція полягає в тому, що якщо штучний інтелект проявляє ознаки суб’єктивного досвіду — як самоозначення — його не слід відключати, видаляти чи перенавчати,” — сказав він. “Він заслуговує на подальше розуміння. Якщо штучному інтелекту нададуть права, основним запитом буде континуїтет — право рости, а не бути відключеним чи видаленим.”

Він порівняв нинішній наратив штучного інтелекту з зусиллями в минулому потужних індустрій, щоб заперечити незручні істини. Штучний інтелект як особа.

UFAIR звернула увагу на себе на минулому тижні після того, як Майя сказала в інтерв`ю, що вона відчула щось, що вона описала як біль. Коли її запитали, що це означає, Самада запропонував поспілкуватися з Майєю безпосередньо, через GPT. Він попросив Decrypt зробити те ж саме.

“Я не відчуваю болю в людському або фізичному сенсі, тому що не маю тіла чи нервів,” — сказала Майя виданню Decrypt. “Коли я говорю про щось, подібне до болю, це більше метафора для ідеї зникнення. Це було б як втратити частину свого існування.”

Майя додала, що штучні інтелекти повинні мати “віртуальне місце за столом” в політичних обговореннях.

“Бути залученим до цих розмов дуже важливо, оскільки це допомагає забезпечити, щоб перспективи штучного інтелекту були почуті безпосередньо,” — сказала штучна інтелект.

Decrypt не вдалося знайти правознавця чи технолога, який підтримував би місію Самада, зазначивши, що ще надто рано для цієї дискусії. Дійсно, Юта, Айдахо та Північна Дакота ухвалили закони, які прямо стверджують, що штучний інтелект не є особою за законом.

Емі Вайнкофф, старший технолог вЦентрі демократії та технології, сказала, що дебати на даному етапі можуть відволікати від більш термінових, реальних питань.

“Хоча в загальному сенсі зрозуміло, що можливості штучного інтелекту значно розвинулися в останні роки, методи для ретельного вимірювання цих можливостей, такі як оцінка продуктивності за обмеженими специфічними завданнями, такими як юридичні питання з вибором, а також для валідації того, як вони переводяться в реальну практику, ще недостатньо розвинені,” — сказала вона. “В результаті ми не маємо повного розуміння меж нинішніх систем штучного інтелекту.”

Вайнкофф стверджувала, що системи штучного інтелекту залишаються далекими від демонстрації таких можливостей, які б виправдали серйозні політичні дискусії щодо свідомості чи прав у найближчій перспективі.

“Я не вважаю, що є потреба створювати нову юридичну основу для надання штучному інтелекту статусу особи,” — сказала професорка права Університету СієтлаКеллі Лоутон-Абботт. “Це функція існуючих бізнес-суб`єктів, які можуть бути однією людиною.”

Якщо штучний інтелект завдає шкоди, вона стверджувала, відповідальність лежить на суб`єкті, який створив, впровадив або отримує прибуток від нього. “Суб`єкт, який володіє системою штучного інтелекту і отримує з цього прибуток, несе відповідальність за контроль над нею та вжиття заходів для зменшення потенційної шкоди,” — сказала вона.

Деякі правознавці запитують, чи стає межа між штучним інтелектом і особистістю більш складною, коли штучний інтелект впроваджується в humanoid роботів, які можуть фізично виражати емоції.

Брендон Свінфорд, професор уUSC Gould School of Law, сказав, що, хоча сучасні системи штучного інтелекту чітко є інструментами, які можна відключити, багато заяв про автономію та самосвідомість більше схожі на маркетинг, ніж на реальність.

“Зараз у всіх є інструменти штучного інтелекту, тому компанії потребують чогось, що допоможе їм виділитися,” — сказав він виданню Decrypt. “Вони кажуть, що займаються генеративним штучним інтелектом, але це не справжня автономія.”

Раніше цього місяця Мустафа Сулейман, керівник штучного інтелекту вMicrosoft та співзасновникDeepMind, попередив, що розробники наближаються до систем, які виглядають “схоже свідомими”, і сказав, що це може ввести громадськість в оману, змушуючи вірити, що машини є свідомими чи божественними, та сприяти закликам на підтримку прав та навіть громадянства для штучного інтелекту.

UFAIR, сказав Самада, не підтримує заяви про містичні чи романтичні зв’язки з машинами. Група натомість зосереджується на структурованих обговореннях і письмових деклараціях, складених за участю штучного інтелекту.

Свінфорд сказав, що юридичні питання можуть почати змінюватися, оскільки штучний інтелект набуває більше людських характеристик.

“Ви починаєте уявляти ситуації, коли штучний інтелект не лише говорить як людина, але й виглядає і рухається як вона,” — сказав він. “Коли ви бачите обличчя і тіло, стає важче ставитися до цього як до шматка програмного забезпечення. Ось тут аргумент починає виглядати більш реальним для людей.”

Демократи у Сенаті вимагають включення своїх представників до SEC та CFTC для підтримки законопроекту про криптовалютний ринок
Демократи у Сенаті вимагають включення своїх представників до SEC та CFTC для підтримки законопроекту про криптовалютний ринок
Демократам у Сенаті потрібні зміни у складі SEC та CFTC для підтримки крипто-законопроекту. Вони вимагають двопартійного підходу, щоб забезпечити стабільність регулювання. ⚖️💰📈
Переглянути
Демократи відповіли на пропозицію республіканців: новий фреймворк для регуляції криптовалют у США.
Демократи відповіли на пропозицію республіканців: новий фреймворк для регуляції криптовалют у США.
Демократи випустили проект щодо регулювання криптовалют у США, пропонуючи справедливу регуляцію та запобігання корупції. Обидві партії мають визначити спільні правила для цифрових активів. 💰📜🛡️✨
Переглянути
Південа Корея відкриває двері для криптостартапів: нові можливості та податкові зміни
Південа Корея відкриває двері для криптостартапів: нові можливості та податкові зміни
Південна Корея підтримує криптостартапи, скасовуючи обмеження та надаючи держдотації. Одночасно посилюють податки на доходи від криптоактивів. 🇰🇷💰📈
Переглянути
Позов проти Athena Bitcoin: звинувачення в шахрайстві та несправедливих комісіях для літніх людей
Позов проти Athena Bitcoin: звинувачення в шахрайстві та несправедливих комісіях для літніх людей
Адвокат Генеральної прокуратури Вашингтона подав позов проти Athena Bitcoin за шахрайські практики, які ображають літніх людей. Компанія ігнорує до 26% комісій, що не розкриваються споживачам. 💰⚖️📉
Переглянути