آنالوگی از مغز
ظهور پردازنده های قوی تر و انفجار داده در پیشرفته تر شدن هوش مصنوعی نقش قابل توجهی ایفا می کند. اما در پس این پرده نمایش یک مفهوم زیربنایی قرار دارد: شبکه عصبی مصنوعی. شبکه ها از لایه های متعدد گره تشکیل شده اند. هر گره را می توانیم مشابه یک نورون در نظر بگیریم. گره های لایه ورودی به کمک ضرایب ریاضی به گره های لایه های پنهان متصل هستند. به همین ترتیب این ضرایب ریاضی در نقش سیناپس ها، ارتباط بین گره های لایه های پنهان و لایه خروجی را نیز ممکن می کنند. دیتای ورودی برای کاری مانند تشخیص چهره می تواند آرایه ای از اعداد باشد. به کمک این آرایه ی عددی در یک مقیاس ۱۰۰ درجه ای می توان رنگ هر پیکسل را مشخص کرد (هر رنگ یک عدد از این بازه را به خود اختصاص می دهد). لایه های پنهان بر اساس ضرایب تعریف شده عملیاتی را بر داده ها اعمال می کنند و نهایتا پاسخ خروجی ظاهر می شود. برای اینکه به سیستم آموزش دهیم تا خروجی صحیح ارائه دهد، خروجی سیستم با خروجی که انتظار داریم متناظر با ورودی دریافت کنیم، تطابق داده می شود. تفاوت های شناسایی شده بین این دو خروجی (خروجی مورد انتظار و خروجی سیستم) برای تنظیم ضرایب بین گره ها به کار می آید. نسخه پیچیده تر این فرایند، شبکه عصبی عمیق است. تعداد لایه های پنهان در این شبکه ها بسیار زیاد است. در سال ۲۰۱۵، هوش مصنوعی که حریف انسانی خود را در بازی Go شکست داد، به کمک همین شبکه عصبی طراحی شد.
دیوید ساسیلو، نوروساینتیست محاسباتی است که با تیم Brain در گوگل همکاری می کند. از نگاه او شبکه عصبی مصنوعی، تنها یک قیاس تقریبی از عملکرد مغز است. شبکه عصبی مصنوعی، سیناپس ها را به عنوان اعدادی در یک ماتریس مدل می کند. در حالی که در واقعیت، سیناپس ها قطعات پیچیده ای از ماشین آلات زیستی هستند که با فعالیت شیمیایی و الکتریکی اقدام به ارسال یا متوقف کردن پیام می کنند. الگوی ارتباط سیناپس ها با همسایگان خود یک الگوی پویا است و نمی توان آن را با قواعد ثابت توضیح داد. با این وجود شبکه های عصبی مصنوعی می توانند در مطالعه مغز مفید باشند. فرض کنید چنین سیستمی بتواند الگوهای فعالیت عصبی، مشابه الگوهای ثبت شده از مغز، تولید کند. در این حالت محققان می توانند با بررسی اینکه این خروجی چگونه تولید می شود، توضیح دهند مغز چگونه عمل می کند. این رویکرد می تواند برای توضیح کارکردهای شناختی مختلف از جمله پردازش تصویر کاربردی باشد.
مدیریت داده ها
داده های عصبی بسیار پیچیده هستند. تکنیک هایی مانند یادگیری ماشین فرصتی فراهم می کند تا در این داده های غامض و پیچیده الگو و ساختار پیدا کنیم. قوت اصلی یادگیری ماشین، شناسایی الگوهایی است که لابه لای حجم عظیمی از داده های پیچیده دفن شده است. تصویربرداری تشدید مغناطیسی کارکردی را در نظر بگیرید. در این تکنیک، طی چند ساعت، در هر ثانیه، تصاویری از فعالیت مغز با وضوح ۱ تا ۲ میلی متری ثبت می شود. بدون یادگیری ماشین، چطور بین این همه تصویر می توانیم پاسخ معناداری برای سوال پژوهشیمان پیدا کنیم؟
بازسازی حواس
هدف دنیل یامین، نوروساینتیست محاسباتی دانشگاه استنفورد، ساخت سیستم مصنوعی بود که بتواند داده های مغزی را بازتولید کند. در سال ۲۰۱۴ او تلاش کرد تا یک شبکه عصبی عمیق تعریف کند که می تواند فعالیت مغز میمون را در زمان تشخیص اشیا، پیش بینی کند. بازشناسی اشیا در انسان و میمون توسط سیستم ventral visual stream انجام می شود. معماری این مسیر عصبی دو ویژگی اصلی دارد. اول، رتینوتوپیک است. رتینوتوپیک یعنی مسیرهای پردازش بصری در مغز به گونه ای سازماندهی شده که نحوه دریافت اطلاعات بینایی را منعکس می کند. ویژگی دوم اینکه سیستم، سلسله مراتبی است. یعنی برخی لایه ها صرفا خطوط کلی اشیا را مشخص می کنند و لایه های بالاتر قشری، وظایف پیچیده تر مثلا تشخیص کامل شی را انجام می دهند. جزئیات نحوه عملکرد لایه های بالاتر هنوز به خوبی درک نشده است. آنچه می دانیم این است که مغز می تواند یک شی را در موقعیت های مختلف، شرایط نوری متفاوت، فاصله ی دور یا نزدیک یا حتی زمانی که بخشی از آن پنهان است، شناسایی کند. کامپیوترها در چنین شرایطی سردرگم می شوند. یامین و همکارانش شبکه عصبی عمیقی براساس همین ویژگی ها( معماری رتینوتوپیکی و سلسله مراتبی) طراحی کردند. هزاران تصویر از ۶۴ شی به این شبکه ارائه شد. تصاویری از اشیا یکسان در اندازه های مختلف یا موقعیت های مختلف. این شبکه عصبی برای بازشناسی اشیا، الگوهای مختلفی از فعالیت عصبی را تولید کرد. محققان این الگوهای تولید شده توسط کامپیوتر را با الگوهای ضبط شده از نورون های میمون حین انجام تکلیف مشابه مقایسه کردند. بهترین نسخه های این شبکه ی عصبی در تشخیص اشیا، نسخه هایی هستند که الگو فعالیت آن ها شبیه به الگوی فعالیت عصبی مغز است. در واقع با توجه به اینکه از ساختار شبکه نورونی برای ساخت شبکه عصبی مصنوعی تقلید شده است، نتیجه می گیریم این شیوه معماری بر توانایی پردازش اثر می گذارد. بنابراین طراحی شبکه های عصبی مختلف می تواند ایده هایی در مورد چگونگی عملکرد مغز در اختیار ما قرار دهد و مشخص کند چه فاکتورهایی (مانند آرایش نورون ها در مثال قبلی) بر این عملکرد اثر تعیین کننده دارد.
دغدغه های مشترک
علوم کامپیوتر و علوم شناختی با سوال های بزرگی دسته پنجه نرم می کنند که پاسخ آن ها می تواند در هر دو شاخه پیشرفت قابل توجهی ایجاد کند. یکی از آن سوال ها این است: یادگیری دقیقا چگونه رخ می دهد؟
شبکه های عصبی معمولا با یادگیری نظارت شده آموزش می بینند. مثلا دیتابیسی از تعداد زیادی تصویر طبقه بندی شده به آن ها ارائه می شود. شبکه، درک آماری از شباهت های بین تصاویری که برچسب مشترکی (مثلا تصاویر گربه) دارند، پیدا می کند. زمانی که یک تصویر جدید را به این شبکه آموزش دیده ارائه کنیم؛ شبکه تصویر جدید را بر اساس ویژگی های آماری مشابه بررسی می کند. اگر ویژگی های عددی تصویر جدید، با یکی از دسته بندی های تعریف شده برای شبکه مطابقت داشته باشد؛ تصویر جدید را به عنوان جزئی از آن طبقه شناسایی می کند (مثلا شناسایی گربه جدید).
واضح است که یادگیری نوزادان فرایند متفاوتی دارد. تعداد تصاویری که نوزاد در طی ۲ سال اول زندگی می بیند در مقیاس میلیارد تخمین زده شده است. در بین این تصاویر تعداد خیلی کمی برچسب گذاری شده اند. تعداد کمی از چیزهایی که نوزاد می بیند برایش نام گذاری می شود. چالش محققان همین است: ساخت ماشین هایی که از دیتای برچسب گذاری نشده نیز یادگیری داشته باشند. همانطور که دنیای زیست شناسی اینگونه عمل می کند! هدف این است ماشین هایی طراحی کنیم که مانند انسان با تعاملات تصادفی، محیط اطراف خود را شناسایی می کنند.