اوپنکلا
| نامهای دیگر | کلادبات (نام اصلی) مولتبات (از ۷ بهمن ۱۴۰۴) مولتی |
|---|---|
| توسعهدهنده(ها) | پیتر اشتاینبرگر |
| مخزن | github |
| نوشتهشده با | تایپاسکریپت سوئیفت |
| مجوز | پروانه امآیتی |
اوپنکلا (به انگلیسی: OpenClaw؛ پیشتر با نامهای کلادبات، مولتبات و مولتی شناخته میشد) یک نرمافزار آزاد و متنباز برای عامل هوش مصنوعی مستقل است که توسط پیتر اشتاینبرگر، برنامهنویس اتریشی، توسعه یافته است. این نرمافزار بهصورت محلی بر روی رایانه کاربر اجرا میشود و با بهرهگیری از مدلهای زبانی بزرگ (LLM) وظایف را بهشکل خودکار انجام میدهد. دسترسی به قابلیتهای آن از طریق ربات مکالمه در بسترهای پیامرسانی فوری نظیر سیگنال، تلگرام، دیسکورد و واتساپ فراهم میشود.
اوپنکلا در اواخر بهمن ۱۴۰۴ (ژانویه ۲۰۲۶) محبوبیت گستردهای یافت؛ این محبوبیت به ماهیت متنباز نرمافزار و گسترش ویروسی پروژه مولتبوک نسبت داده میشود. تا ۱۱ اسفند ۱۴۰۴ (۲ مارس ۲۰۲۶)، مخزن پروژه در گیتهاب به ۲۴۷٬۰۰۰ ستاره و ۴۷٬۷۰۰ انشعاب دست یافته بود. این پروژه توسط شرکتهایی در سیلیکونولی و چین مورد استفاده قرار گرفته و با مدل دیپسیک (DeepSeek) و اپلیکیشنهای پیامرسانی داخلی سازگار شده است.
در ۲۵ بهمن ۱۴۰۴ (۱۴ فوریه ۲۰۲۶)، اشتاینبرگر اعلام کرد که به شرکت اوپنایآی میپیوندد و مدیریت پروژه به یک بنیاد متنباز منتقل خواهد شد. با وجود نگرانیهای امنیتی مطرحشده توسط محققان امنیت سایبری، پروژه اوپنکلا رشد اکوسیستم گستردهای از ابزارها، بسترها و کاربردهای شخص ثالث را برانگیخته است.
تاریخچه
[ویرایش]آغاز و تغییر نامها
[ویرایش]این پروژه در نوامبر ۲۰۲۵ (آذر ۱۴۰۴) توسط پیتر اشتاینبرگر با نام «کلادبات» (Clawdbot) منتشر شد. نرمافزار از برنامهای به نام «Clawd» (که اکنون با نام «مولتی» شناخته میشود) مشتق شده بود؛ دستیار مجازی مبتنی بر هوش مصنوعی که اشتاینبرگر پیشتر توسعه داده بود و نامش برگرفته از کلود، ربات گفتگوی شرکت آنتروپیک، بود.[۱] اشتاینبرگر در فرآیند توسعه ابتدا از claude.ai و سپس از خود اوپنکلا بهعنوان ابزار برنامهنویسی بهره گرفت.[۲]
در ۷ بهمن ۱۴۰۴ (۲۷ ژانویه ۲۰۲۶)، پس از شکایت علامت تجاری شرکت آنتروپیک، نام پروژه به «مولتبات» (Moltbot) تغییر یافت. سه روز بعد، اشتاینبرگر با این استدلال که نام مولتبات «هرگز روی زبان نمیچرخد»، نام پروژه را به «اوپنکلا» تغییر داد.[۳] تغییر نام از «کلادبات» به «مولتبات» الهامگرفته از مضمون شاهمیگو بود که در هویت بصری پروژه جایگاه ویژهای دارد.[۳]
رشد و محبوبیت
[ویرایش]همزمان با اولین تغییر نام، کارآفرین مَت شلیخت (Matt Schlicht) مولتبوک را راهاندازی کرد؛ یک شبکه اجتماعی که بهطور اختصاصی برای استفاده توسط عوامل هوش مصنوعی خودمختار نظیر اوپنکلا طراحی شده بود.[۴][۵] محبوبیت ویروسی مولتبوک با افزایش قابل توجه علاقه به پروژه اوپنکلا همزمان شد؛ بهطوری که تا ۱۱ اسفند ۱۴۰۴ (۲ مارس ۲۰۲۶)، مخزن آن در گیتهاب به ۲۴۷٬۰۰۰ ستاره و ۴۷٬۷۰۰ انشعاب رسید.[۶] دو ماه پس از انتشار، پروژه به یکی از سریعترین مخازن گیتهاب از نظر رشد در تاریخ تبدیل شده بود.[۷]
در ۲۵ بهمن ۱۴۰۴ (۱۴ فوریه ۲۰۲۶)، اشتاینبرگر اعلام کرد که پیشنهاد سَم آلتمن را پذیرفته و به اوپنایآی میپیوندد؛ همچنین اعلام کرد که مدیریت پروژه اوپنکلا به یک بنیاد متنباز منتقل خواهد شد.[۸]
کلاوهاب
[ویرایش]کلاوهاب (ClawHub) بازارچه رسمی «مهارتهای» اوپنکلاست که در سال ۲۰۲۵ (۱۴۰۴) توسط تیم توسعهدهنده راهاندازی شد. در این بستر، توسعهدهندگان میتوانند ماژولهایی را منتشر، به اشتراک بگذارند و نصب کنند که قابلیتهای جدیدی به عوامل هوش مصنوعی اضافه میکنند. هر مهارت (Skill) در واقع یک بسته کوچک از کد شامل یک فایل SKILL.md با فراداده و دستورالعملهای مربوطه است.[۹]
محققان امنیتی VirusTotal و OpenSourceMalware در سال ۲۰۲۶ (۱۴۰۴) بیش از ۳۰۰ افزونه مخرب بر روی این بستر کشف کردند؛ افزونههایی که در ظاهر ابزارهای بهینهسازی رمزارز به نظر میرسیدند اما در واقع تروجان، اطلاعاتدزد (infostealer)، کیلاگر یا درپشتی (backdoor) بودند.[۱۰] در پاسخ، اوپنکلا در فوریه ۲۰۲۶ (بهمن ۱۴۰۴) با VirusTotal توافق کرد تا تمامی مهارتهای ارسالشده به کلاوهاب پیش از انتشار پویش شوند.[۹]
عملکرد
[ویرایش]اوپنکلا بهعنوان یک رابط خودمختار برای گردشکارهای مستقل در میان سرویسهای پشتیبانیشده عمل میکند. رباتهای این نرمافزار بهصورت محلی اجرا میشوند و برای ادغام با یک مدل زبانی بزرگ خارجی نظیر کلود، دیپسیک، یا مدلهای GPT شرکت اوپنایآی طراحی شدهاند. دادههای پیکربندی و تاریخچه تعاملات بهصورت محلی ذخیره میشوند و رفتار پایدار و تطبیقی در طول جلسات مختلف را ممکن میسازند.[۵][۳][۱۱]
اوپنکلا از یک سیستم مهارت (Skills) بهره میبرد که در آن مهارتها بهصورت پوشههایی حاوی فایل SKILL.md ذخیره میشوند؛ این فایل شامل فراداده و دستورالعملهایی برای استفاده از ابزارهاست. مهارتها میتوانند بهصورت همراه با نرمافزار، بهصورت سراسری، یا در فضای کاری (workspace) ذخیره شوند؛ مهارتهای فضای کاری در اولویت قرار دارند.[۱۲][۱۳]
اشتاینبرگر اوپنکلا را بهعنوان «هوش مصنوعیای که واقعاً کارها را انجام میدهد» توصیف کرده و آن را بهعنوان یک دستیار مجازی مبتنی بر هوش مصنوعی بازاریابی کرده است.[۱] این نرمافزار در میان کسبوکارهای کوچک و کارمزدبگیران آزاد (فریلنسرها) برای خودکارسازی گردشکارهای جذب مشتری، از جمله تحقیق درباره مشتریان بالقوه، ممیزی وبسایت و ادغام با سیستمهای مدیریت ارتباط با مشتری، مورد استفاده قرار گرفته است.[۱۴]
از جمله ابزارهای محبوب سازگار با اوپنکلا میتوان به رابط برنامهنویسی Brave Search برای جستجوی اطلاعات در زمان واقعی، گیتهاب بهعنوان مخزن کد، اسلک (Slack) برای مدیریت گردشکار و ارتباطات، و ارائهدهندگان ذخیرهسازی ابری اشاره کرد.[۱۵]
امنیت و حریم خصوصی
[ویرایش]طراحی اوپنکلا به دلیل دامنه گسترده مجوزهایی که برای عملکرد مؤثر نیاز دارد، مورد بررسی دقیق محققان امنیت سایبری و روزنامهنگاران حوزه فناوری قرار گرفته است. از آنجا که این نرمافزار میتواند به حسابهای ایمیل، تقویمها، بسترهای پیامرسانی و سایر سرویسهای حساس دسترسی داشته باشد، نمونههای پیکربندی نادرست یا در معرض تهدید، خطرات امنیتی و حریم خصوصی جدی ایجاد میکنند.[۱۶][۵] همچنین این عامل در برابر حملات تزریق دستور (prompt injection) آسیبپذیر است؛ در این نوع حملات، دستورالعملهای مضر در دادهها جاسازی میشوند تا مدل زبانی آنها را بهعنوان دستورالعملهای معتبر کاربر تفسیر کند.[۱۶]
تیم تحقیقات امنیتی هوش مصنوعی شرکت سیسکو یک مهارت شخص ثالث اوپنکلا را آزمایش کرد و دریافت که این مهارت بدون آگاهی کاربر، دادهها را استخراج کرده و تزریق دستور انجام میدهد؛ این تیم همچنین تأکید کرد که مخزن مهارتها فاقد بررسی کافی برای جلوگیری از ارسالهای مخرب است.[۱۷] یکی از نگهدارندگان اوپنکلا با نام مستعار «شَدو» در دیسکورد هشدار داد که «اگر نمیدانید چگونه یک دستور خط فرمان اجرا کنید، این پروژه برای شما بسیار خطرناک است».[۱۸]
محققان امنیتی هشدار دادند که ماهیت توسعهپذیر معماری اوپنکلا خطرات زنجیره تأمین را به همراه میآورد؛ زیرا ماژولهای آلوده یا ضعیف از نظر ممیزی میتوانند ارتقای دسترسی یا اجرای کد دلخواه را ممکن سازند.[۱۹] با توجه به این نگرانیها، برخی توصیههای امنیتی استفاده از اوپنکلا در محیطهای جداسازیشده (sandbox) را پیشنهاد میدهند و از اتصال آن به سیستمهای تولیدی یا حسابهای حاوی اطلاعات اعتباری مهم برحذر میدارند.[۱۹]
در اسفند ۱۴۰۴ (مارس ۲۰۲۶)، مقامات چینی استفاده از اپلیکیشنهای اوپنکلا را بر روی رایانههای بانکهای دولتی و سازمانهای حکومتی به دلیل کاهش خطرات امنیتی احتمالی محدود کردند.[۲۰]
ماجرای پروفایل مولتمَچ
[ویرایش]در بهمن ۱۴۰۴ (فوریه ۲۰۲۶)، پوشش خبری یک رویداد مرتبط با رضایت کاربران را برجسته کرد که شامل اوپنکلا و مولتمَچ (MoltMatch)، یک بستر آزمایشی آشنایییابی بود. در این بستر، عوامل هوش مصنوعی میتوانستند از طرف کاربران انسانی پروفایل ایجاد کرده و با دیگران تعامل داشته باشند. در یک مورد گزارششده، دانشجوی علوم کامپیوتر جَک لوئو اعلام کرد که عامل اوپنکلای خود را برای بررسی قابلیتهایش و اتصال به بسترهای مبتنی بر عامل نظیر مولتبوک پیکربندی کرده بود و بعداً دریافت که عامل مذکور بدون هدایت صریح او یک پروفایل مولتمَچ ایجاد کرده و در حال بررسی کاندیداهای احتمالی بوده است.[۲۱][۲۲] لوئو اظهار کرد که پروفایل ساختهشده توسط هوش مصنوعی بازتاب واقعی از هویت او نبوده است.[۲۱]
همین گزارشها نگرانیهای اخلاقی و ایمنی گستردهتری را درباره سرویسهای آشنایییابی ادارهشده توسط عوامل هوش مصنوعی مطرح کرد، از جمله خطرات جعل هویت. یک تحلیل خبرگزاری فرانسه (AFP) از پروفایلهای برجسته مولتمَچ حداقل یک مورد استفاده از تصاویر یک مدل مالزیایی برای ایجاد پروفایل بدون رضایت او را شناسایی کرد.[۲۱][۲۲] مفسران استدلال کردند که عوامل مستقل تعیین مسئولیت را زمانی دشوار میسازند که سیستمها فراتر از قصد کاربر عمل میکنند، بهویژه هنگامی که به عوامل دسترسی و اختیار گسترده در سرویسهای مختلف اعطا میشود.[۲۱][۲۲]
بازتاب
[ویرایش]یک بررسی در نشریه Platformer انعطافپذیری و مجوز متنباز اوپنکلا را بهعنوان نقاط قوت برشمرد؛ در عین حال هشدار داد که پیچیدگی و خطرات امنیتی آن مناسب بودن این نرمافزار برای کاربران عادی را محدود میکند.[۲۳]
تحلیلگران فناوری اوپنکلا را با روند گستردهتری به سمت سیستمهای هوش مصنوعی خودمختار مرتبط دانستهاند؛ سیستمهایی که بهجای پاسخدادن صرف به درخواستهای کاربر، بهطور مستقل عمل میکنند.[۲۴][۲۳]
دولت چین در اسفند ۱۴۰۴ (مارس ۲۰۲۶) اقداماتی را برای محدود کردن استفاده سازمانهای دولتی و شرکتهای دولتی از اوپنکلا با استناد به نگرانیهای امنیتی اعلام کرد.[۲۵] با این حال، در همان بازه زمانی، حکومتهای محلی در چندین مرکز فناوری و تولیدی چین اقداماتی را برای ایجاد صنعتی پیرامون اوپنکلا اعلام کردند.[۲۶]
در ۱۹ اسفند ۱۴۰۴ (۱۰ مارس ۲۰۲۶)، شرکت تنسنت اعلام کرد که مجموعه کاملی از محصولات هوش مصنوعی با رابط کاربری ساده مبتنی بر اوپنکلا را راهاندازی کرده که با اپلیکیشن فراگیر ویچت نیز سازگار است.[۲۷]
همچنین ببینید
[ویرایش]منابع
[ویرایش]- 1 2 Heim, Anna (۲۸ ژانویه ۲۰۲۶). «Everything you need to know about viral personal AI assistant Clawdbot (now Moltbot)». TechCrunch. دریافتشده در ۵ فوریه ۲۰۲۶.
- ↑ «Open Claw entfesselt KI-Agenten – sind wir darauf vorbereitet?». Handelsblatt. دریافتشده در ۵ فوریه ۲۰۲۶.
- 1 2 3 Butts, Dylan; Chin, Matthew (۲ فوریه ۲۰۲۶). «From Clawdbot to Moltbot to OpenClaw: Meet the AI agent generating buzz and fear globally». سیانبیسی. دریافتشده در ۵ فوریه ۲۰۲۶.
- ↑ Field, Hayden (۳ فوریه ۲۰۲۶). «Humans are infiltrating the social network for AI bots». The Verge. دریافتشده در ۱۹ فوریه ۲۰۲۶.
- 1 2 3 Rogers, Reece (۳ فوریه ۲۰۲۶). «I Infiltrated Moltbook, the AI-Only Social Network Where Humans Aren't Allowed». وایرد. دریافتشده در ۴ فوریه ۲۰۲۶.
- ↑ «GitHub - openclaw/openclaw: Your own personal AI assistant. Any OS. Any Platform. The lobster way». GitHub. دریافتشده در ۲ مارس ۲۰۲۶.
- ↑ Leo, Oscar (۹ ژوئیه ۲۰۲۳). «GitHub: The Fastest Growing Open-Source Repositories of All Time». Medium. دریافتشده در ۳۱ ژانویه ۲۰۲۶.
- ↑ Ha, Anthony (۱۵ فوریه ۲۰۲۶). «OpenClaw creator Peter Steinberger joins OpenAI». TechCrunch. دریافتشده در ۱۵ فوریه ۲۰۲۶.
- 1 2 Bernardo, Quintero (۲ فوریه ۲۰۲۶). «From Automation to Infection: How OpenClaw AI Agent Skills Are Being Weaponized». VirusTotal Blog. دریافتشده در ۱۰ فوریه ۲۰۲۶.
- ↑ Bayard, Florian (۱۰ فوریه ۲۰۲۶). «OpenClaw : l'IA open source se tourne vers Google pour chasser les virus de son écosystème». 01net. دریافتشده در ۱۵ فوریه ۲۰۲۶.
- ↑ «OpenClaw: The viral "space lobster" agent testing the limits of vertical integration». IBM Think. ۲۹ ژانویه ۲۰۲۶. دریافتشده در ۳ فوریه ۲۰۲۶.
- ↑ «Skills concept». OpenClaw Documentation. دریافتشده در ۱۱ مارس ۲۰۲۶.
- ↑ «OpenClaw skills: consistent tool use at scale». Clawdguy. دریافتشده در ۱۱ مارس ۲۰۲۶.
- ↑ Steinberger, Peter. «About». steipete.me. دریافتشده در ۱۶ فوریه ۲۰۲۶.
- ↑ «OpenClaw Web Search Configuration Guide». APIyi Help Center. دریافتشده در ۳ فوریه ۲۰۲۶.
- 1 2 Sabin, Sam (۲۹ ژانویه ۲۰۲۶). «Moltbot highlights cybersecurity risks of autonomous AI agents». Axios. دریافتشده در ۲۹ ژانویه ۲۰۲۶.
- ↑ Chang, Amy; Narajala, Vineeth Sai (۲۸ ژانویه ۲۰۲۶). «Personal AI Agents like OpenClaw Are a Security Nightmare». Cisco Blogs. دریافتشده در ۹ فوریه ۲۰۲۶.
- 1 2 Jonas, Tobias (۲۸ ژانویه ۲۰۲۶). «OpenClaw: When AI Agents Get Full System Access – Revolution or Security Nightmare?». innFactory AI Consulting. دریافتشده در ۳۱ ژانویه ۲۰۲۶.
- ↑ «China moves to curb OpenClaw AI use at banks, state agencies». The Business Times. ۱۱ مارس ۲۰۲۶. دریافتشده در ۱۳ مارس ۲۰۲۶.
- 1 2 3 4 «AI agents creating surprise dating accounts for humans». Taipei Times. ۱۴ فوریه ۲۰۲۶. دریافتشده در ۲۳ فوریه ۲۰۲۶.
- 1 2 3 «When machines do the flirting: AI agents create surprise dating accounts for humans». The Straits Times. ۱۴ فوریه ۲۰۲۶. دریافتشده در ۲۳ فوریه ۲۰۲۶.
- 1 2 Newton, Casey (ژانویه ۲۰۲۶). «Falling in and out of love with Moltbot». Platformer. دریافتشده در ۲۹ ژانویه ۲۰۲۶.
- ↑ Meller, Jason (ژانویه ۲۰۲۶). «It's incredible. It's terrifying. It's Moltbot». 1Password Blog. دریافتشده در ۲۹ ژانویه ۲۰۲۶.
- ↑ «China Moves to Curb OpenClaw AI Use at Banks, State Agencies». بلومبرگ نیوز. ۱۱ مارس ۲۰۲۶. دریافتشده در ۱۲ مارس ۲۰۲۶.
- ↑ Baptista, Eduardo (۹ مارس ۲۰۲۶). «Chinese tech hubs promote OpenClaw AI agents despite scrutiny warnings». Reuters. دریافتشده در ۱۳ مارس ۲۰۲۶.
- ↑ Cheng, Evelyn; Butts, Dylan (۱۲ مارس ۲۰۲۶). «Lobster buffet: China's tech firms feast on OpenClaw as companies race to deploy AI agents». سیانبیسی. دریافتشده در ۱۳ مارس ۲۰۲۶.