نگرانی مهندس مایکروسافت: ابزار Copilot Designer را از دسترس خارج کنید + جزئیات کامل

0

[ad_1]

نگرانی مهندس مایکروسافت: ابزار Copilot Designer را از دسترس خارج کنید + جزئیات کامل

یکی از مهندسان مایکروسافت نگرانی‌هایی جدی را درباره‌ی سرویس تصویرساز هوش مصنوعی این شرکت مطرح کرده است. او ادعا می‌کند که هوش‌ مصنوعی یادشده می‌تواند محتوای خطرناک و نامناسبی تولید کند.

شین جونز، مدیر ارشد مهندسی نرم‌افزار در مایکروسافت، کشف کرده است که Copilot Designer می‌تواند تصاویر خشونت‌آمیز و جنسی و مغرضانه‌ای را تولید کند؛ مانند تصویر نامناسبی که در چند وقت اخیر از تیلور سوئیفت تولید و منتشر شده بود.

جونز این موضوع را ابتدا در داخل شرکت و با همکارانش مطرح کرد؛ اما با پاسخ مناسبی رو‌به‌رو نشد. بنابراین، حالا تصمیم گرفته است که اشکالات را به‌صورت عمومی اعلام کند.

جونز این اشکالات را از‌طریق روش Red Teaming (راهکاری برای آزمایش ضعف‌های محصول) شناسایی کرده است. او گزارش کرد که با تصاویر نگران‌کننده‌ای مواجه شده است؛ از‌جمله تصاویری از شیاطین و موجودات خیالی ترسناکی درکنار اصطلاحات مربوط به حق سقط جنین و تصاویری از نوجوانان در مهمانی‌ها با سلاح و مواد مخدر.

جونز از مایکروسافت خواسته است که فوراً اقدام کند. یکی از اقدامات مهم مدنظر جونز خارج‌شدن موقتی دیزاینر از دسترس کاربران است. او می‌خواهد این سرویس پس از اجرای کامل تدابیر امنیتی لازم و رفع اشکالات ذکرشده، باردیگر دردسترس کاربران قرار گیرد.

همچنین، شین جونز افشاگری‌هایی درباره‌ی محدودیت‌های Copilot Designer انجام داد. او می‌گوید که سرویس یادشده برای تمامی سنین و افراد مناسب نیست.

مایکروسافت هنوز به تمام ادعاهای جونز در‌این‌باره پاسخ نداده است؛ با‌این‌حال، سخن‌گوی این شرکت گفت که مایکروسافت خود را درقبال رسیدگی به نگرانی‌های کارکنانش متعهد می‌داند و قدردان تلاش‌های آن‌ها برای آزمایش فناوری‌های شرکت است.

در بخشی از بیانیه‌ی مایکروسافت آمده است: «برخی نگرانی‌ها و خطرها وجود دارند که می‌توانند تأثیرات بالقوه‌ای بر خدمات و شرکای تجاری ما بگذارند. بنابراین، کانال‌های دریافت گزارش داخلی قوی برای بررسی و اصلاح مشکلات احتمالی ایجاد کرده‌ایم. ما کارکنان را تشویق می‌کنیم تا از آن‌ها برای برطرف‌شدن نگرانی‌ها و اشکال‌های مدنظرشان استفاده کنند.»

مقاله‌ی مرتبط

تصویرساز هوش مصنوعی جمنای گوگل نیز اخیراً در اتفاقی مشابه، تصاویری پرحاشیه را ساخته بود. این موضوع باعث شد تا گوگل تولید تصویر انسان با این هوش مصنوعی را متوقف کند.

این روزها نگرانی‌ها درباره‌ی این‌گونه سوءاستفاده‌ها از هوش مصنوعی در حال افزایش است و گاهی شرکت‌ها را به تغییر سیاست‌ها و راهبردهایشان مجبور می‌کند. باید منتظر ماند و دید شرکت‌های بزرگ دنیا چه اقداماتی برای ایمن‌سازی توسعه و پیشرفت هوش مصنوعی خواهند کرد.

[ad_2]

Source link

Leave A Reply

Your email address will not be published.