دانشمند ارشد متا هوش مصنوعی فعلی را چندان هوشمند نمی‌داند + جدید

0 15

دانشمند ارشد متا هوش مصنوعی فعلی را چندان هوشمند نمی‌داند + جدید

لیکان می‌گوید: «متن منبع اطلاعاتی بسیار ضعیفی است. اگر سیستمی را ۲۰ هزار سال بر‌اساس متن آموزش دهید، باز‌هم نمی‌فهمد که اگر A همان B باشد، آن‌گاه B همان A است. موضوعات اساسی زیادی درباره‌ی جهان وجود دارد که هوش مصنوعی صرفاً ازطریق این نوع آموزش آن‌ها را نخواهد آموخت.»

لیکان و دیگر مدیران هوش مصنوعی متا در حال تحقیق هستند تا بفهمند چگونه مدل‌های به‌اصطلاح ترانسفورماتور استفاده‌شده برای ایجاد برنامه‌هایی مانند ChatGPT، می‌توانند برای کار با داده‌های مختلف، از‌جمله اطلاعات صوتی و تصویری و ویدئویی طراحی شوند. اگر این سیستم‌ها بتوانند میلیاردها ارتباط پنهان احتمالی بین انواع مختلف داده‌ها را کشف کنند، شاهکارهای خارق‌العاده‌تری انجام می‌دهند.

یکی از تحقیقات متا نرم‌افزاری است که گرافیک دیجیتال را با دنیای واقعی ترکیب و به افراد کمک می‌کند در‌حالی‌که عینک واقعیت افزوده‌ی Project Aria روی چشمشان است، بهتر تنیس بازی کنند.

مدیران متا ویدئویی را نشان دادند که در آن فردی که عینک AR را حین بازی تنیس می‌زد، توانست نشانه‌های بصری‌ای را ببیند که به او نشان می‌داد چگونه راکت را به‌درستی نگه دارد و بازوهایش را کامل بچرخاند. مدل‌های هوش مصنوعی مورد‌نیاز برای توسعه‌ی این دستیار تنیس دیجیتال علاوه‌بر متن و صدا، به ترکیبی از داده‌های بصری سه‌بعدی نیز نیاز دارند.

این سیستم‌های هوش مصنوعی چندوجهی مرزهای آینده را نشان می‌دهند؛ البته توسعه‌ی آن‌ها نیز ارزان نخواهد بود. هرچه شرکت‌هایی همچون متا و آلفابت بیشتر درباره‌ی مدل‌های پیشرفته‌تر هوش مصنوعی تحقیق کنند، انویدیا می‌تواند سود بیشتری به جیب بزند؛ خصوصاً اگر رقیب دیگری در کار نباشد.

بزرگ‌ترین سازنده‌ی هوش مصنوعی سخت‌افزار هوش مصنوعی انویدیا است که با واحدهای پردازش گرافیکی گران‌قیمتش به ابزار استانداردی برای آموزش مدل‌های زبانی عظیم تبدیل شده است. متا برای آموزش نرم افزار Llama AI خود به ۱۶,۰۰۰ کارت گرافیک انویدیا Nvidia A100 متکی بود.

از‌آن‌جا‌که متا و سایر محققان به کار خود برای توسعه‌ی این نوع مدل‌های پیشرفته‌ی هوش مصنوعی ادامه می‌دهند، آیا صنعت فناوری به ارائه‌دهندگان سخت‌افزار بیشتری علاوه‌بر انویدیا نیاز دارد؟ لیکان در پاسخ به این پرسش گفت: «نیاز خاصی ندارد؛ اما بودنش مفید است.»

او می‌گوید: «تراشه‌های کامپیوتری آینده ممکن است GPU نامیده نشوند. آنچه خواهیم دید، تراشه‌های جدیدی هستند که واحد پردازش گرافیکی نیستند؛ بلکه تنها شتاب‌دهنده‌های عصبی و یادگیری عمیق هستند.»

او به محاسبات کوانتومی که غول‌های فناوری همچون مایکروسافت و IBM و گوگل منابع بسیاری را صرف آن کرده‌اند، با دیده‌ی تردید می‌نگرد. بسیاری از محققان معتقدند که ماشین‌های محاسباتی کوانتومی می‌توانند در زمینه‌های مملو از محاسبات و داده مانند کشف دارو پیشرفت‌ها را افزایش دهند؛ زیرا برخلاف بیت‌های باینری، می‌توانند با بیت‌های کوانتومی محاسبات متعددی انجام دهند.

او می‌گوید: «مشکلاتی که می‌توانید با محاسبات کوانتومی حل کنید، می‌توانید با کامپیوترهای کلاسیک قدرتمندتر حل کنید. محاسبات کوانتومی موضوع علمی جذابی است؛ اما ارتباط عملی و امکان ساخت کامپیوترهای کوانتومی که واقعاً مفید باشند، چندان روشن نیست.»



Source link

Leave A Reply

Your email address will not be published.