عصر خودمختاری: کلیدش تو شبکه‌ست!

هوش مصنوعی قدم به عرصه معاملات می‌ذاره. نه فقط به عنوان یه نرم‌افزار، بلکه به عنوان یک بازیگر اصلی. عامل‌های هوش مصنوعی (ایجنت‌ها) فقط بازارها رو تحلیل نمی‌کنن، بلکه خودشون معامله می‌کنن، شرایط رو تعیین می‌کنن و سرمایه رو توی ریل‌های غیرمتمرکز جابجا می‌کنن؛ جایی که تسویه حساب قطعی و نهایی انجام می‌شه. برای میزهای معاملاتی رمزارزی موسسات، این یعنی معاملات سریع‌تر، محصولات بهتر و فرصت‌های سرمایه‌گذاری کاملاً جدید.

حالا تصور کنین دو تا عامل هوش مصنوعی دارن روی یه قرارداد مشتقه مذاکره می‌کنن، اما هر کدوم اعداد متفاوتی رو ثبت می‌کنن. یکی ۱۰۰ میلیون دلار ثبت می‌کنه، اون یکی ۱۲۰ میلیون دلار. اگه این اختلاف باعث خطا یا تحقیقات بشه، چه کسی مسئول خواهد بود؟ این دیگه تئوری نیست، واقعیت عصر عامل‌های هوش مصنوعی (Agentic Era) همینه. هوش مصنوعی توی سیستم‌های مالی یاد می‌گیره، مذاکره می‌کنه و عمل می‌کنه؛ جایی که حتی یه عدم تطابق کوچیک هم می‌تونه ریسک سیستمی ایجاد کنه.

اما یه مشکل رو به رشد وجود داره: ممکنه عامل‌های هوش مصنوعی با اطلاعات غلط یا غیرقابل راستی‌آزمایی عمل کنن که نتایج واقعی و جدی داره. مثلاً یه سیستم هوش مصنوعی که توسط سازمان بهداشت ملی بریتانیا استفاده می‌شد، بیمار رو اشتباه تشخیص داد و به یه “بیمارستان سلامت” ساختگی با یه کد پستی جعلی اشاره کرد. همین‌طور که از اتوماسیون‌های ساده عبور می‌کنیم، به سیستم‌هایی نیاز داریم که ریشه‌های محکمی در قابلیت راستی‌آزمایی و پاسخگویی داشته باشن. درست مثل اینکه وب به HTTPS نیاز داشت، وبِ عامل‌های هوش مصنوعی هم به یه شبکه قابل اعتماد نیاز داره.

بدون یه حافظه مشترک (که بهش دفتر کل یا لجر هم می‌گن)، عامل‌ها از هم فاصله می‌گیرن و هر کدوم راه خودشون رو می‌رن. ثبت‌های متناقض باعث شکست می‌شن. بدون مسیرهای حسابرسی (Audit Trails)، عامل‌ها مبهم، غیرقابل پاسخگویی، غیرقابل اعتماد و در نتیجه برای استفاده در محیط‌های تجاری نامناسب می‌شن.

این یه سناریوی دور از ذهن نیست. این شکاف زیرساختی الان هم وجود داره. برای حرکت تو این عصر عامل‌های هوش مصنوعی، ما به زیرساختی نیاز داریم که بر پایه سه لایه اصلی ساخته شده باشه:

سه لایه اصلی برای عصر عامل‌های هوش مصنوعی

زیرساخت غیرمتمرکز:

نقاط کنترل مرکزی رو از بین می‌بره، پایداری، مقیاس‌پذیری و از همه مهم‌تر، دوام رو تضمین می‌کنه؛ بدون اینکه برای اداره کل سیستم (Stack) به یک نهاد خصوصی تکیه کنیم.

لایه اعتماد:

قابلیت راستی‌آزمایی، هویت و اجماع رو در سطح پروتکل پیاده‌سازی می‌کنه، و تراکنش‌های قابل اعتماد رو در سراسر حوزه‌های قضایی و سیستم‌ها ممکن می‌سازه.

عامل‌های هوش مصنوعی قابل اعتماد و راستی‌آزمایی شده:

اصالت (Provenance)، تاییدیه (Attestations) و پاسخگویی رو اعمال می‌کنه، تضمین می‌کنه که سیستم‌ها همیشه قابل حسابرسی باقی بمونن و این عامل‌ها بتونن به نمایندگی از ما عمل کنن.

شبکه‌های غیرمتمرکز باید لنگر این سیستم باشن. عامل‌ها به سیستم‌هایی نیاز دارن که به اندازه کافی سریع باشن تا هزاران تراکنش رو در ثانیه مدیریت کنن، چهارچوب‌های هویتی که در سراسر مرزها کار کنن و منطقی که به اون‌ها اجازه بده همکاری کنن و با هم کار کنن، نه فقط داده‌ها رو جابجا کنن.

برای فعالیت توی محیط‌های مشترک، عامل‌ها به سه چیز نیاز دارن:

سه نیاز ضروری عامل‌های هوش مصنوعی در محیط‌های مشترک

اجماع (توافق روی اینکه واقعاً چه اتفاقی افتاده)

اصالت (شناسایی اینکه چه کسی اون رو شروع کرده یا تحت تاثیر قرار داده و چه کسی تاییدش کرده)

قابلیت حسابرسی (پیگیری هر مرحله به راحتی)

بدون این‌ها، عامل‌ها می‌تونن به طور غیرقابل پیش‌بینی توی سیستم‌های جدا از هم رفتار کنن. و از اونجایی که همیشه فعال هستن، باید از پایه و اساس پایدار و قابل اعتماد طراحی بشن.

برای روبرو شدن با این چالش، شرکت‌ها باید سیستم‌هایی رو توسعه بدن که شفاف، قابل حسابرسی و مقاوم باشن. سیاست‌گذاران باید از شبکه‌های متن‌باز (Open Source) به عنوان ستون فقرات هوش مصنوعی قابل اعتماد حمایت کنن. و رهبران و توسعه‌دهندگان اکوسیستم باید اعتماد رو از همون ابتدا و در پایه سیستم طراحی کنن، نه اینکه بعداً سعی کنن اون رو اضافه کنن.

عصر عامل‌های هوش مصنوعی فقط خودکار نخواهد بود. بلکه قابلیت مذاکره، ترکیب‌پذیری، پاسخگویی… و البته اعتماد رو هم خواهد داشت، اگه ما انتخاب کنیم که اون رو این‌طور بسازیم.

ثبت دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *