۶ دلیل که نباید کورکورانه به هوش مصنوعی اعتماد کنید + جدید
در تصویر بالا، ChatGPT کتابی را معرفی کرده که به نظر جوابی کاملاً غلط بوده و در ادامه با یک عذرخواهی، جواب قبلی خود را اصلاح کرده است.
آیا اشتباه را متوجه شدید؟ وقتی ChatGPT را از اشتباهش مطلع کردیم بهسرعت خودش را اصلاح کرد. متأسفانه، در حالی که اشتباه خود را تصدیق کرد، باز هم نشاندهنده این است که چگونه هوش مصنوعی میتواند تا این حد اشتباه کند، آن هم در مورد سؤالی که جوابش به راحتی در وبسایتهای مختلف وجود دارد.
چتباتهای هوش مصنوعی اطلاعات محدودی دارند اما برای پاسخگویی در هر صورت برنامهریزی شدهاند. آنها به دادههای آموزشی خود متکی هستند و همچنین میتوانند از تعاملات با شما و قابلیتهای یادگیری ماشین بیاموزند. اگر هوش مصنوعی از پاسخ دادن امتناع کند، نمیتواند یاد بگیرد یا خود را اصلاح کند. به همین دلیل است که هوش مصنوعی گاهی اوقات اشتباه میکند و از اشتباهاتش درس می گیرد.
در حالی که این فقط ماهیت هوش مصنوعی است، میتوانید ببینید که چگونه میتواند به یک مشکل بزرگ تبدیل شود. اکثر مردم جستجوهای گوگل خود را بررسی نمیکنند و در مورد چتباتهایی مانند ChatGPT هم همینطور است. این کار میتواند منجر به دریافت اطلاعات نادرستی شود و پیامدهایی از خود به جا بگذارد که نتیجهاش به این زودیها مشخص نشود.
۲. به راحتی میتوان از هوش مصنوعی برای دستکاری اطلاعات استفاده کرد
بر کسی پوشیده نیست که هوش مصنوعی میتواند غیر قابل اعتماد و مستعد خطا باشد اما یکی از مرموزترین ویژگیهای آن تمایل به دستکاری اطلاعات است. مشکل این است که هوش مصنوعی درک دقیقی از زمینه مورد بحث شما ندارد و باعث میشود که واقعیتها را مطابق با اهداف خود تغییر دهد.
این دقیقاً همان چیزی است که در مورد بینگچت مایکروسافت اتفاق افتاد. یکی از کاربران در توییتر زمان نمایش فیلم جدید آواتار را درخواست کرد اما چتبات از ارائه اطلاعات خودداری کرد و ادعا کرد که فیلم هنوز اکران نشده است.
مطمئناً، شما به راحتی میتوانید این پاسخ را به عنوان یک باگ در نظر بگیرید. با این حال، واقعیت ناقص بودن ابزارهای هوش مصنوعی را تغییر نمیدهد و ما باید با احتیاط پیش برویم.