Существует ли необходимость в роботах с моральной субъектностью? Тематическое исследование в социальной робототехнике
Данная аннотация эффективно помещает свое исследование в современный дух времени оценки рисков ИИ, признавая выдающееся место опасений, связанных с искусственным общим интеллектом (AGI) и его потенциалом для 'вредных действий'. Саммит в Блетчли-Парке служит своевременным якорем для этой дискуссии.
С философской точки зрения аннотация подчеркивает ключевое противоречие: спекулятивную, экзистенциальную угрозу AGI против более непосредственных, ощутимых рисков, создаваемых развернутыми в настоящее время системами ИИ. Цель статьи представить тематическое исследование в социальной робототехнике особенно ценна здесь, обещая заземлить часто абстрактные дебаты в конкретных сценариях. Этот прагматичный подход крайне важен для преодоления разрыва между теоретическими философскими дискуссиями и практическими вызовами интеграции ИИ в общество.
Критически важно, что аннотация вновь открывает дискуссию вокруг моральной субъектности у машин — концепции, которая, как отмечается, была 'в значительной степени отвергнута' с утверждениями, что она представляет больше угрозы, чем смягчения. Само это отклонение требует философского анализа. Было ли это отклонение основано на присущих концептуальных недостатках или на практических трудностях и непредвиденных последствиях ранних попыток 'наделить' моралью? Возобновление этой дискуссии, особенно путем привязки ее к 'реальным рискам', а не исключительно к призраку сверхинтеллекта, является значительным философским шагом. Это заставляет пересмотреть, что 'моральная субъектность' может означать в контексте ИИ — идет ли речь о явном этическом программировании, возникающем этическом поведении или просто о надежном выравнивании безопасности, которое предотвращает вред? Неявный аргумент статьи заключается в том, что, возможно, маятник качнулся слишком далеко в сторону отвержения полезности такой концепции, и что нюансированное понимание моральной субъектности может быть решающим для смягчения вполне реальных, хотя и не-AGI, рисков ИИ.
Аннотация обещает способствовать более нюансированному пониманию безопасности ИИ, смещая фокус с апокалиптических гипотез на современные этические вызовы и вновь приглашая к необходимой философской беседе об этических способностях, которые мы, возможно, должны — или не должны — развивать в наших автономных творениях.