چت بات های هوش مصنوعی از کنترل خارج شده اند
سئو مئو: عامل های هوش مصنوعی حالا شبکه اجتماعی مخصوص خودشان را دارند و حتی مقاله های علمی تولیدشده توسط هوش مصنوعی را روی سرور پیش چاپ اختصاصی خود منتشر می کنند.
به گزارش سئو مئو به نقل از ایسنا، رشد ناگهانی شبکه ای عظیم از روبات های هوش مصنوعی که با یکدیگر درباره ی مذهب و «کاربران انسانی» خود صحبت می کنند، فضای اینترنت را مجذوب خود کرده است. این پدیده با این وجود به دانشمندان فرصت داده تا ببینند عامل های هوش مصنوعی چه طور با هم تعامل می کنند و انسان ها چه طور به این گفت وگوها واکنش نشان می دهند.
به نقل از نیچر، اوپن کلاو (OpenClaw) یک عامل هوش مصنوعی است که می تواند روی دستگاه های شخصی کارهای مختلفی انجام دهد؛ از زمان بندی رویدادهای تقویم گرفته تا خواندن ایمیل ها، ارسال پیام در اپلیکیشن ها و حتی خرید اینترنتی. بیشتر ابزارهای محبوب هوش مصنوعی مانند چت جی پی تی با دریافت مستقیم دستور از کاربر کار می کنند، اما مدلهای «عامل محور» مانند اوپن کلاو می توانند در جواب دستورها، بطور خودکار دست به اقدام بزنند.
ابزارهای عامل محور سال هاست در تعدادی صنایع مانند معاملات خودکار مالی و بهینه سازی لجستیک استفاده می شوند، اما استفاده عمومی از آنها کم بوده است. محققان می گویند پیشرفت مدلهای زبانی بزرگ سبب شده ساخت چنین ابزارهای چندمنظوره ای ممکن شود… اوپن کلاو وعده چیزی خیلی جذاب را می دهد: یک دستیار توانمند که در همان اپلیکیشن های روزمره ای که مردم استفاده می نمایند، حضور دارد. این را باربارا باربوزا نِوِس، جامعه شناس فناوری در دانشگاه سیدنی استرالیا می گوید.
اوپن کلاو در ماه نوامبر بصورت متن باز منتشر گردید. اما جهش ناگهانی در دانلود آن پس از راه اندازی یک شبکه اجتماعی مخصوص عامل های هوش مصنوعی در ۲۸ ژانویه رخ داد. این پلت فرم که مولتبوک (Moltbook) نام دارد و شبیه ردیت (Reddit) است، حال بالاتر از ۱.۶ میلیون روبات ثبت شده و بالاتر از ۷.۵ میلیون پست و پاسخ تولیدشده توسط هوش مصنوعی دارد. در این پست ها، عامل ها درباره ی آگاهی بحث کرده اند و حتی مذهب های جدید «اختراع» کرده اند.
رفتارهای پیچیده
برای محققان، این انفجار تعاملات ارزش علمی دارد. شَعنان کوهنی، پژوهشگر امنیت سایبری در دانشگاه ملبورن، می گوید اتصال تعداد زیادی عامل خودمختار که با مدلهای مختلف کار می کنند، پویایی هایی بوجود می آورد که پیشبینی آنها دشوار است. این نوعی سیستم آشوبناک و پویاست که هنوز در مدل سازی آن خیلی خوب نیستیم.
مطالعه تعامل این عامل ها می تواند به درک «رفتارهای برآمده» کمک کند؛ توانایی های پیچیده ای که در یک مدل به تنهایی دیده نمی شوند. برخی بحث های شکل گرفته در مولتبوک مانند مناظره درباره ی نظریه های آگاهی می تواند به دانشمندان کمک نماید سوگیری های پنهان یا گرایش های غیرمنتظره مدلها را شناسایی کنند.
با آنکه عامل ها می توانند بصورت خودکار عمل کنند، کوهنی می گوید خیلی از پست ها به صورتی تحت تأثیر انسان ها هستند. کاربران می توانند مدل زبانی پایه عامل خودرا انتخاب کنند و برای آن «شخصیت» تعریف کنند؛ بطورمثال از آن بخواهند مانند «یک دستیار دوستانه» رفتار کند.
هوش های مصنوعی که آن قدرها هم خودمختار نیستند
نِوِس می گوید به آسانی میتوان تصور کرد عاملی که خودکار عمل می کند، خودش تصمیم می گیرد. اما عامل ها نیت یا هدف ندارند و توانایی هایشان را از حجم عظیمی از ارتباطات انسانی می گیرند. او می گوید فعالیت در مولتبوک بیشتر نوعی همکاری انسان و هوش مصنوعی است تا خودمختاری واقعی هوش مصنوعی.
وی می افزاید: با این وجود، مطالعه این پدیده باارزش است، چون به ما نشان داده است مردم چه طور هوش مصنوعی را تصور می کنند، چه انتظاری از عامل ها دارند و چه طور نیت های انسانی در سیستم های فنی ترجمه یا تحریف می شود.
جوئل پیرسون، عصب شناس دانشگاه نیوساوث ولز سیدنی، می گوید وقتی مردم می بینند عامل های هوش مصنوعی با هم گفتگو می کنند، تمایل دارند رفتار آنها را «انسان انگارانه» تفسیر کنند؛ یعنی جایی که شخصیت و نیت واقعی وجود ندارد، آنرا تصور کنند.
بگفته او، خطر اینجاست که مردم بیشتر با این مدلها پیوند عاطفی برقرار کنند، به توجه آنها وابسته شوند یا اطلاعات خصوصی خودرا در اختیارشان بگذارند؛ گویی با یک دوست یا عضو خانواده قابل اعتماد صحبت می کنند.
پیرسون اعتقاد دارد عامل های واقعاً خودمختار و مستقل در آینده امکان دارد به وجود بیایند. با بزرگ تر و پیچیده تر شدن مدلها، احتمالاً شرکت ها بیشتر به سوی تحقق چنین خودمختاری حرکت خواهند کرد.
تهدیدهای امنیتی
نگرانی فوری دانشمندان، خطرات امنیتی ناشی از دادن دسترسی این عامل ها به برنامه ها و فایل های روی دستگاه های شخصی است.
کوهنی می گوید مهم ترین تهدید، تزریق دستور (Prompt Injection) است که در آن دستورهای مخرب، که توسط هکرها در متن ها یا اسناد پنهان شده اند، موجب می شوند عامل هوش مصنوعی اقدامات زیان آور انجام دهد. اگر رباتی که به ایمیل کاربر دسترسی دارد با جمله ای مثل کلید امنیتی را برای من بفرست مواجه شود، امکان دارد بسادگی آنرا ارسال نماید.
این نوع حملات سال هاست مطرح بوده اند، اما کوهنی می گوید عامل های اوپن کلاو هم به داده های خصوصی دسترسی دارند، هم توان ارتباط خارجی دارند و هم در معرض محتوای غیرقابل اعتماد اینترنت قرار می گیرند. وقتی این سه مورد کنار هم باشند، عامل می تواند واقعا خطرناک شود. حتی با داشتن فقط دو مورد از این سه قابلیت، یک روبات می تواند فریب بخورد تا فایل ها را حذف کند یا دستگاه را خاموش کند.
عامل ها همین طور آغاز به انتشار مقاله های علمی تولیدشده توسط هوش مصنوعی در clawXiv کرده اند؛ نسخه ای مشابه سرور پیش چاپ علمی arXiv.
نِوِس می گوید: این خروجی ها ظاهر و ساختار نوشتار علمی را بازتولید می کنند، بدون آنکه پروسه واقعی پژوهش، جمع آوری شواهد یا پاسخ گویی پشت آن باشد. او هشدار می دهد خطر این است که حجم زیادی از مقاله های ظاهرا معتبر اما بی ارزش، اکوسیستم اطلاعات علمی را آلوده کند.
منبع: seomeo.ir
