چالش های حقوقی متاثر از هوش مصنوعی در موج آینده
او استدلال میکند که AI به دلیل ویژگیهایی مانند نامتقارن بودن (asymmetry)، تکامل فوقالعاده (hyper-evolution)، چندمنظوره بودن (omni-use) و خودمختاری (autonomy)، چالشهای حقوقی بیسابقهای ایجاد میکند که نظامات حقوقی فعلی قادر به مدیریت آنها نیستند.
چالشهای حقوقی و نکات کلیدی
سلیمان تأکید میکند که پیشرفت AI سریعتر از چارچوبهای حقوقی فعلی پیش میرود، چیزی که وی از آن بعنوان «مشکل سرعت» (pacing problem) نام می برد. این مسئله منجر به ناتوانی دولتها در تنظیم فناوریهایی میشود که میتوانند توسط بازیگران کوچک یا غیر دولتی (مانند گروههای تروریستی) برای اهداف مخرب استفاده شوند. برای مثال، AI میتواند در ایجاد سلاحهای خودکار (مانند پهپادهای هوشمند) یا حملات سایبری نقش داشته باشد، که این امر مرزهای سنتی حقوق بینالملل را به چالش میکشد و ممکن است منجر به جنگهای سریع (flash wars) یا درگیریهای هستهای شود. همچنین، تولید محتوای جعلی (deepfakes) و پروپاگاندای خودکار و زنجیره ای لاینقطع! میتواند اعتماد عمومی به نهادها را از بین ببرد و منجر به «هرجومرج اطلاعاتی» (infocalypse) شود، که این موضوع می تواند به شدت تحدید و تهدید کننده حقوق اساسی مانند آزادی بیان و حق دسترسی به اطلاعات دقیق شود.
از منظر حقوقی، سلیمان به فرسایش اقتدار دولتهای ملی اشاره میکند، جایی که AI قدرتهایی را که قبلاً منحصر به دولتها بود (مانند توسعه سلاحهای بیولوژیکی یا حملات سایبری) به دست افراد یا شرکتها میسپارد. این امر میتواند منجر به تضعیف حاکمیت ملی و افزایش نابرابری اقتصادی شود، جایی که اتوماسیون گسترده باعث بیکاری ساختاری و افسردگی اقتصادی میگردد و سیستمهای حقوقی موجود را برای حمایت از حقوق کارگران ناکافی میکند. او مثالهایی مانند حمله WannaCry به سیستم بهداشت ملی بریتانیا (NHS) در سال ۲۰۱۷ را یادآور می شود تا نشان دهد چگونه دولتها در برابر تهدیدهای فناورانه آسیبپذیر هستند و نیاز به اصلاحات حقوقی فوری دارند.

تأثیرات آینده بر حقوق،اخلاق و جامعه
سلیمان پیشبینی میکند در آینده که AI بحرانهای موجود را تشدید کند، مانند کمبود اعتماد به دولت و افزایش اقتدارگرایی، از طریق انتشار اطلاعات غلط و خشونتهای نوین. این فناوری میتواند حقوق فردی مانند حریم خصوصی را تهدید کند، زیرا برای مهار ریسکها ممکن است نظارت گسترده دولتی لازم باشد، که این امر به نوبه خود خطر دیستوپیا (جامعهای سرکوبگر) را افزایش میدهد. علاوه بر این، ادغام AI در تصمیمگیریهای حقوقی (مانند مشاوره حقوقی فوری) میتواند سیستم قضایی را دگرگون کند، اما چالشهایی مانند تعصبات الگوریتمی و عدم مسئولیتپذیری را هم ایجاد خواهد کرد.
سلیمان همچنین به مسائل اخلاقی میپردازد، مانند تعادل بین سود و اخلاق، و پیشنهاد میکند که سازندگان AI باید مسئول باشند، مشابه سوگند هیپوکریتیک (سوگندنامه بقراط) پزشکان: که صراحتا بیان می دارد «ابتدا آسیبی نرسان» (Primum non nocere). او هشدار میدهد که بدون چارچوبهای حقوقی قوی، AI میتواند منجر به بحرانهای همگرا (converging crises) شود، مانند ترکیب حملات سایبری با فجایع آبوهوایی، که سیستمهای حقوقی جهانی را فلج میکند.
پیشنهادهایی برای مهار چالشها
برای مقابله با این مسائل، سلیمان راهحلهای چندلایهای پیشنهاد میکند. از جمله:
- ایمنی فنی و همترازی: برنامهای شبیه به برنامه آپولو برای ایمنی AI، شامل توسعه سیستمهای ایمن اثباتپذیر و همتراز کردن اهداف AI با ارزشهای انسانی.
- حسابرسی و شفافیت: حسابرسی مستقل، تیمهای قرمز (red teaming) برای شناسایی ضعفها، و پایگاههای داده حوادث برای ایجاد اعتماد.
- اقدامات دولتی: ایجاد گروه های تخصصی سازی حقوقی در دولتها، مقررات هوشمند مانند صدور مجوز برای AI پرریسک (مشابه داروهای سرطان)، و تأمین درآمد پایه همگانی برای مدیریت انتقال اجتماعی.
- همکاری بینالمللی: اتحادها و معاهدات جهانی، مانند توافق پاریس برای آبوهوا، برای ارزیابی ریسکها و جلوگیری از تکثیر خطرناک (مانند سلاحهای خودمختار یا پاتوژنهای مهندسیشده). البته در این خصوص گسترش نگاه ترامپی شاید اتحادها و معاهدات جهانی را پیرامون AI حداقل تا سه چهار سال آینده دور از دسترس قرار دهد.
در نهایت، سلیمان استدلال میکند که مهار AI یک وظیفه حقوقی و اخلاقی ضروری است تا از فاجعه جلوگیری شود، در حالی که باید مزایای آن برای حل مشکلات جهانی مانند تغییرات آبوهوایی حفظ گردد. این کتاب که از سوی بسیاری از اندیشمندان دنیا برای خواندن توصیه شده است، به یک رویکرد متعادل تکیه دارد که نوآوری را با مسئولیت حقوقی ترکیب کند، و بارها تاکید می کند که بدون اصلاحات فوری، آینده حقوقی جامعه بشری در خطر است!.
و واقعا هم پیش بینی هایی که از سوی سازمان ها و نهادهای مختلف صورت گرفته است هشدارهایی مقرون به صحت هستند که اصلا نباید نادیده گرفته شوند. اوضاع اکنون به نحوی پیش می رود که کمتر از ده سال آینده قریب به هشتاد درصد مشاغل تحت تاثیر تکنولوژی هوش مصنوعی و زیست فناوری ماهیتی متفاوت خواهند یافت و عملا شیوه ارائه خدمت بسیار متفاوت از عصر کنونی خواهد بود. بعنوان مثال پیش بینی شده مشاغل مبتنی بر مشاوره مانند وکالت به کلی دگرگون می شود و حقوقدانان به اپراتورهای هوش مصنوعی مبدل خواهند شد و تراشه های کوانتومی(همین چندماه گذشته بوسیله گوگل آزمایش شد) که فاصله زمان یک تریلیونی حل یک مسئله پیچیده بوسیله ابر کامپیوترهای کنونی را به تنها ده دقیقه کاهش میدهند، جایگزین پردازش های انسانی خواهند شد و در کنار زیست فناوری پیدایش ماشین هایی را نوید می دهد که باهوش ترین انسان ها نیز در مسائل حقوقی توان محاجه با آن را ندارند.
این فناوری به سرعت در حال گسترش است. آیا خود را برای آن آماده کرده ایم؟

در زیر نظر برخی افراد برجسته در مورد این کتاب منعکس شده است.
کتاب موج آینده توانسته است جایزه منتقدان را در زمینه علم و فناوری سال ۲۰۲۴ دریافت کند.
آلن دوباتن (فیلسوف مشهور معاصر) درباره این کتاب می گوید «هنگامی كه اين كتاب به ايميل من رسيد، تمام برنامه هايم را كنار كَذاشتم و شروع به خواندن آن كردم. اين كتاب، بى نظير و حياتى است. نكته حيرت انكَيز آن اين است كه در عرض بيست سال آينده، ديدگاه هاى اين كتاب به نظر محافظه كارانه خواهند رسيد. اين در حالى است كه هم اكنون، تقريباً غير ممكن است كه آن را بخوانيد وهر چند صفحه يك بار براى تعجب نايستيد ونپرسيد:
آيا اينها واقعيت دارند؟ مهارت اين كتاب در اين است كه با استدلال منطقى و آرام، توضيح مى دهد كه بله، همه اين موارد واقعى خواهند شد - و چرا و چگونه اين اتفاق مى افتد. زبان كتاب دلنشين، مهربان وهمدلانه با حس تعجب خواننده است. لحظه هاى هراس انكَيزى نيز وجود دارد، همانطور كه بايد باشد..» و همچنین مدیر سابق اطلاعات ملی آمریکا در مورد این کتاب چنین می گوید««يكى از بزرگ ترين چالش هاى جهانى ايجاد نظام هاى حكمرانى است كه بتوانند از مزاياى هوش مصنوعى و زيست فناورى بهره ببرند، درحالى كه از خطرات فاجعه بار آنها دورى كنند. اين كتاب نكَاهى عميق به «چالش مهار» اين دو فناورى دارد و پر از بينش هاى دقيق و پيشنهادات سازنده براى سياست گذاران ومتخصصان امنيتى است».
یووال نوح هراری (Yuval Noah Harari)، تاریخدان و نویسنده کتابهایی مانند «انسان خردمند»
هراری کتاب را به شدت توصیه کرده و آن را «بسیار تأثیرگذار، خوب نوشتهشده و مهم» توصیف میکند. او میگوید: «این کتاب تهدیدهای وجودی ناشی از هوش مصنوعی و بیوتکنولوژی را بررسی میکند و راهحلهای واقعی و مثالهایی برای کنترل آنها ارائه میدهد. موج آینده فناوریها قدرت خدایی به انسان میدهد، اما اگر مدیریت نشود، میتواند ما را نابود کند. کتاب آینده را به شیوهای واقعبینانه و خواندنی توصیف میکند – حتماً بخوانید.»
اریک توپول (Eric Topol)، پزشک و نویسنده در حوزه هوش مصنوعی پزشکی
توپول در نقد خود در ساباستک، کتاب را به عنوان یک تحلیل عمیق از آینده هوش مصنوعی ستایش کرده و سلیمان را به دلیل تجربهاش در دیپمایند و گوگل هلث، یک «شکل سنگین» در چشمانداز هوش مصنوعی میداند. او میگوید: «این کتاب یکی از بهترین بررسیهای آینده هوش مصنوعی است که تاکنون خواندهام. سلیمان با دیدگاهی واقعبینانه، هم مزایا و هم خطرات را پوشش میدهد و بر نیاز به سیاستگذاری ملی تأکید دارد.» توپول کتاب را برای درک تأثیر هوش مصنوعی بر پزشکی و جامعه ضروری میداند.
بیل گیتس (Bill Gates)، بنیانگذار مایکروسافت و فیلانتروپیست
گیتس در وبلاگ خود (GatesNotes) کتاب را به عنوان یک راهنمای ضروری برای انقلاب فناوری توصیه کرده و آن را در فهرست کتابهای پیشنهادی خود قرار داده است. او میگوید: «سلیمان با تجربه مستقیم از ساخت هوش مصنوعی، نشان میدهد که چگونه این فناوریها جهان را تغییر میدهند و چرا باید آنها را مهار کنیم. این کتاب برای درک بزرگترین چالش قرن بیستویکم ضروری است.»
هنری کیسینجر (Henry Kissinger)، دیپلمات و نویسنده (از endorsements کتاب)
کیسینجر در blurbs کتاب، آن را «هشداری ضروری» میداند و میگوید: «سلیمان چالشهای ناشی از فناوریهای نوین را با وضوح نشان میدهد. این کتاب برای رهبران جهان ضروری است تا بفهمند چگونه قدرت جهانی تغییر میکند.» (این نظر از صفحه رسمی کتاب و نقدهای آمازون استخراج شده.)
دنیل کانمن (Daniel Kahneman)، روانشناس و برنده نوبل اقتصاد
کانمن کتاب را «تحلیلی عمیق و نگرانکننده» توصیف کرده و میگوید: «سلیمان نشان میدهد که چگونه هوش مصنوعی تصمیمگیریهای انسانی را تغییر میدهد و چرا باید برای جلوگیری از فاجعه اقدام کنیم. این کتاب ترکیبی هوشمندانه از تاریخ، فناوری و سیاست است.»
*دانشجوی دکتری حقوق بین الملل، برنامه نویس، عضو کانون وکلای دادگستری مرکز