
هوش مصنوعی قدم به عرصه معاملات میذاره. نه فقط به عنوان یه نرمافزار، بلکه به عنوان یک بازیگر اصلی. عاملهای هوش مصنوعی (ایجنتها) فقط بازارها رو تحلیل نمیکنن، بلکه خودشون معامله میکنن، شرایط رو تعیین میکنن و سرمایه رو توی ریلهای غیرمتمرکز جابجا میکنن؛ جایی که تسویه حساب قطعی و نهایی انجام میشه. برای میزهای معاملاتی رمزارزی موسسات، این یعنی معاملات سریعتر، محصولات بهتر و فرصتهای سرمایهگذاری کاملاً جدید.
حالا تصور کنین دو تا عامل هوش مصنوعی دارن روی یه قرارداد مشتقه مذاکره میکنن، اما هر کدوم اعداد متفاوتی رو ثبت میکنن. یکی ۱۰۰ میلیون دلار ثبت میکنه، اون یکی ۱۲۰ میلیون دلار. اگه این اختلاف باعث خطا یا تحقیقات بشه، چه کسی مسئول خواهد بود؟ این دیگه تئوری نیست، واقعیت عصر عاملهای هوش مصنوعی (Agentic Era) همینه. هوش مصنوعی توی سیستمهای مالی یاد میگیره، مذاکره میکنه و عمل میکنه؛ جایی که حتی یه عدم تطابق کوچیک هم میتونه ریسک سیستمی ایجاد کنه.
اما یه مشکل رو به رشد وجود داره: ممکنه عاملهای هوش مصنوعی با اطلاعات غلط یا غیرقابل راستیآزمایی عمل کنن که نتایج واقعی و جدی داره. مثلاً یه سیستم هوش مصنوعی که توسط سازمان بهداشت ملی بریتانیا استفاده میشد، بیمار رو اشتباه تشخیص داد و به یه “بیمارستان سلامت” ساختگی با یه کد پستی جعلی اشاره کرد. همینطور که از اتوماسیونهای ساده عبور میکنیم، به سیستمهایی نیاز داریم که ریشههای محکمی در قابلیت راستیآزمایی و پاسخگویی داشته باشن. درست مثل اینکه وب به HTTPS نیاز داشت، وبِ عاملهای هوش مصنوعی هم به یه شبکه قابل اعتماد نیاز داره.
بدون یه حافظه مشترک (که بهش دفتر کل یا لجر هم میگن)، عاملها از هم فاصله میگیرن و هر کدوم راه خودشون رو میرن. ثبتهای متناقض باعث شکست میشن. بدون مسیرهای حسابرسی (Audit Trails)، عاملها مبهم، غیرقابل پاسخگویی، غیرقابل اعتماد و در نتیجه برای استفاده در محیطهای تجاری نامناسب میشن.
این یه سناریوی دور از ذهن نیست. این شکاف زیرساختی الان هم وجود داره. برای حرکت تو این عصر عاملهای هوش مصنوعی، ما به زیرساختی نیاز داریم که بر پایه سه لایه اصلی ساخته شده باشه:
سه لایه اصلی برای عصر عاملهای هوش مصنوعی
زیرساخت غیرمتمرکز:
نقاط کنترل مرکزی رو از بین میبره، پایداری، مقیاسپذیری و از همه مهمتر، دوام رو تضمین میکنه؛ بدون اینکه برای اداره کل سیستم (Stack) به یک نهاد خصوصی تکیه کنیم.
لایه اعتماد:
قابلیت راستیآزمایی، هویت و اجماع رو در سطح پروتکل پیادهسازی میکنه، و تراکنشهای قابل اعتماد رو در سراسر حوزههای قضایی و سیستمها ممکن میسازه.
عاملهای هوش مصنوعی قابل اعتماد و راستیآزمایی شده:
اصالت (Provenance)، تاییدیه (Attestations) و پاسخگویی رو اعمال میکنه، تضمین میکنه که سیستمها همیشه قابل حسابرسی باقی بمونن و این عاملها بتونن به نمایندگی از ما عمل کنن.
شبکههای غیرمتمرکز باید لنگر این سیستم باشن. عاملها به سیستمهایی نیاز دارن که به اندازه کافی سریع باشن تا هزاران تراکنش رو در ثانیه مدیریت کنن، چهارچوبهای هویتی که در سراسر مرزها کار کنن و منطقی که به اونها اجازه بده همکاری کنن و با هم کار کنن، نه فقط دادهها رو جابجا کنن.
برای فعالیت توی محیطهای مشترک، عاملها به سه چیز نیاز دارن:
سه نیاز ضروری عاملهای هوش مصنوعی در محیطهای مشترک
اجماع (توافق روی اینکه واقعاً چه اتفاقی افتاده)
اصالت (شناسایی اینکه چه کسی اون رو شروع کرده یا تحت تاثیر قرار داده و چه کسی تاییدش کرده)
قابلیت حسابرسی (پیگیری هر مرحله به راحتی)
بدون اینها، عاملها میتونن به طور غیرقابل پیشبینی توی سیستمهای جدا از هم رفتار کنن. و از اونجایی که همیشه فعال هستن، باید از پایه و اساس پایدار و قابل اعتماد طراحی بشن.
برای روبرو شدن با این چالش، شرکتها باید سیستمهایی رو توسعه بدن که شفاف، قابل حسابرسی و مقاوم باشن. سیاستگذاران باید از شبکههای متنباز (Open Source) به عنوان ستون فقرات هوش مصنوعی قابل اعتماد حمایت کنن. و رهبران و توسعهدهندگان اکوسیستم باید اعتماد رو از همون ابتدا و در پایه سیستم طراحی کنن، نه اینکه بعداً سعی کنن اون رو اضافه کنن.
عصر عاملهای هوش مصنوعی فقط خودکار نخواهد بود. بلکه قابلیت مذاکره، ترکیبپذیری، پاسخگویی… و البته اعتماد رو هم خواهد داشت، اگه ما انتخاب کنیم که اون رو اینطور بسازیم.



