سپیدارتک
0

دارپا هوش مصنوعی قابل اعتمادتری توسعه می‌دهد

هوش مصنوعی دارپا

با وجود پیشرفت های صورت گرفته ، هوش مصنوعی هنوز در تصمیم گیری ها قابل اعتماد نیست. دارپا در تلاش است تا هوش مصنوعی قابل اطمینان تری را توسعه دهد.

توسعه هوش مصنوعی در چند سال گذشته با موانع زیادی همراه بوده است. امروزه از این سیستم ها در خودروهای خودران برای تشخیص بیماری ها در پزشکی و همچنین تعدادی از موارد دیگر که مردم روزانه با آنها سر و کار دارند استفاده می شود. تفاوت این است که انسانها برای تصمیماتی که می گیرند دلایلی دارند.

بوکس سیاه چیست؟

وقتی از هوش مصنوعی در تصمیم گیری استفاده می شود ، دلایلی که سیستم برای تصمیمات خود دارد در هاله ای از ابهام قرار دارد که به آن بوکس سیاه می گویند. به طوری که حتی توسعه دهندگان هوش مصنوعی قادر به درک این دلایل یا پیش بینی تصمیمات این سیستم نیستند. ما می دانیم که شبکه عصبی مغز آموزش دیده است تا با مراجعه به حجم زیادی از داده های ذهنی ، این تصمیمات را اتخاذ کند. هوش مصنوعی همان فرایند آموزشی را انجام می دهد. اما اعتماد به چیزی که نمی تواند درک کند نسبتاً دشوار است.

آژانس پروژه های تحقیقاتی پیشرفته دفاعی ایالات متحده (DARPA) در تلاش است تا این جعبه سیاه را از بین ببرد و برای رسیدن به این هدف ، ابتدا مبلغ 6.5 میلیون دلار از هشت استاد علوم کامپیوتر در دانشگاه ایالت Edgeon تأمین کرده است.

آلن فرن ، مدیر این پروژه تحقیقاتی ، در یک کنفرانس خبری می گوید:

در نهایت ، ما می خواهیم این تصمیمات عمیق شبکه را به جملات و ایده ها تبدیل کنیم تا این تصمیمات به طور طبیعی گرفته شوند.

برنامه DARPA و دانشگاه ایالتی Edgeon به مدت چهار سال اجرا می شود و شامل توسعه سیستمی است که به هوش مصنوعی اجازه می دهد با متخصصان یادگیری ماشین ارتباط برقرار کند. برای توسعه این سیستم ، آنها از هوش مصنوعی در بازی های استراتژی مانند StarCraft استفاده می کنند. در این بازی ها به هوش مصنوعی آموزش داده می شود تا دلایل تصمیمات خود را برای بازیکنان واقعی توضیح دهد. این اولین بار نیست که هوش مصنوعی وارد دنیای بازی های ویدئویی می شود. Google Deep Mind همچنین StarCraft را به عنوان محیط آموزشی خود برای هوش مصنوعی در نظر گرفته است.

نتایج این پروژه تحقیقاتی در نهایت در پروژه های رباتیک و خودروهای DARPA مورد استفاده قرار می گیرد. بدیهی است که استفاده از پتانسیل هوش مصنوعی در کاربردهای نظامی باید مطابق قانون و اخلاق باشد. فارن می گوید:

هیچ کس از این فناوری نوظهور در موارد خاص استفاده نمی کند مگر اینکه آن را در سطح قابل اطمینان ارتقا دهیم ، و توانایی توضیح تصمیمات با استفاده از هوش مصنوعی یکی از مهمترین راهها برای ایجاد سطح قابل اعتماد در این سیستم ها است.

خوشبختانه ، این تنها پروژه در حال انجام برای انسانی سازی هوش مصنوعی برای قابلیت اطمینان بیشتر نیست.

به نظر شما این مطلب چه اندازه مفید بود؟

میانگین امتیازات ۵ از ۵
از مجموع ۱ رای

نظرات کاربران

نظرات پس از بررسی مدیریت منتشر خواهند شد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

یک × یک =