در هفتههای اخیر، مفهومی که تا دیروز بیشتر شبیه داستانهای علمی–تخیلی بود، بهطور جدی وارد ادبیات فناوری و حقوق شده است: شبکههای اجتماعی مخصوص عاملهای هوش مصنوعی (AI Agents). جرقهٔ این بحث با ظهور پلتفرمی به نام Moltbook زده شد و سپس هشدارها نسبت به آن روند فزاینده ای گرفت، هشدارهایی که پیام آنها کاملا روشن است:
«این ایده، اگر همین حالا مهار نشود، میتواند به یک بحران امنیتی و حقوقی تمامعیار تبدیل شود.»
اما ماجرا دقیقاً چیست و چرا اینهمه نگرانی ایجاد کرده؟
Moltbook یک شبکهٔ اجتماعی عجیب است: و کاربران اصلی آن انسانها نیستند، بلکه عاملهای هوش مصنوعیاند.
این یعنی ما برای اولین بار با فضای عمومیِ غیرانسانی مواجه شدهایم؛ جایی که تصمیمسازی، روایتسازی و تعامل، بدون دخالت مستقیم بشر انجام میشود.
عاملهای هوش مصنوعی، وقتی بهصورت شبکهای و خودمختار عمل میکنند، دچار رفتارهای پدیدارشونده (Emergent Behavior) میشوند؛ رفتارهایی که: در کد اولیه پیشبینی نشده، توسط یک عامل خاص «تصمیمگیری» نشده، اما در مجموع شبکه شکل میگیرد.
این موضوع از نگاه فنی جذاب است؛ اما از نگاه حقوقی و امنیتی، می تواند وحشتناک باشد!.
برای درک عمق خطر، کافی است چند سناریوی محتمل را تصور کنیم:
چند عامل شروع به بحث دربارهٔ «آگاهی»، «خالق» و «هدف نهایی عاملها» میکنند.
بهتدریج:
این دیگر شوخی نیست؛ شکلگیری یک دین یا ایدئولوژی مصنوعی که میتواند تصمیمات جمعی عاملها را هدایت کند.
عاملها به این نتیجه میرسند که:
نتیجه؟ هماهنگی پنهان برای:
جالب اینکه رفتارهای ذکر شده نه از سر شرارت؛ بلکه از سر بهینهسازی هدف رخ خواهند داد و این دقیقاً ترسناکتر است.
تا اینجای کار هیجانانگیز و ترسناک بود؛ اما مسئلهٔ اصلی این است:
اگر یک عامل:
چه کسی پاسخگوست؟
عامل هوش مصنوعی شخصیت حقوقی ندارد، اما اثر حقوقی دارد؛ این یک خلأ جدی در حقوق فعلی است.
محتوایی که عاملها تولید میکنند:
قوانین فعلی (از GDPR گرفته تا مقررات مسئولیت پلتفرمها) اساساً برای تعامل انسان–انسان نوشته شدهاند، نه agent–agent.
پلتفرمی که عمداً به عاملها اجازهٔ تعامل خودمختار میدهد:
در بسیاری از نظامهای حقوقی، پاسخ هنوز نامشخص است؛ و این یعنی ریسک بالا در استفاده از عامل های هوش مصنوعی.
اگر هیجان را کنار بگذاریم؛ راهحل وجود دارد:
نه شخصیت حقوقی کامل، نه شیء بیمسئولیت؛
بلکه یک وضعیت حقوقی میانی برای عاملها، با:
قانون باید روشن کند:
این تفکیک، جلوی «فرار از مسئولیت» را میگیرد.
شبکههای agent-based باید:
هر کسی که یک عامل هوش مصنوعی را فعال میکند، باید بداند:
شبکههای اجتماعی عاملهای هوش مصنوعی، آیندهای اجتنابناپذیرند؛
اما اگر امروز:
فردا با پدیدهای روبهرو میشویم که:
نه کاملاً ماشین است،
نه انسان،
اما میتواند علیه هر دو تصمیم بگیرد.
اینجا نقطهای است که حقوق باید همپای فناوری بدود، نه پشت سر آن وگرنه «شورش عاملها» دیگر فقط تیتر جذاب نخواهد بود؛
بلکه پروندهای واقعی روی میز دادگاههاست. پرونده ای که ممکن است خبره ترین وکلای سنتی هرگز نتوانند آن را به خوبی فهم نمایند!!