جستجو برای "{{term}}"
جستجو برای "{{term}}" نتیجه ای نداشت.
پیشنهاد می شود:
  • از املای صحیح کلمات مطمئن شوید.
  • از کلمات کمتری استفاده کنید.
  • فقط کلمه کلیدی عبارت مورد نظر خود را جستجو کنید.
نتیجه ای یافت نشد.
سایر نتیجه ها (دپارتمان ها، اخبار، مقالات) را بررسی کنید.

{{item.title}}

{{item.caption}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، اخبار، مقالات) را بررسی کنید.

{{item.title}}

{{item.caption}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، دپارتمان ها، مقالات) را بررسی کنید.

{{item.title}}

{{item.caption}}
{{item.datetime}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، دپارتمان ها، اخبار) را بررسی کنید.

{{item.title}}

{{item.caption}}
{{item.datetime}}
  • یکشنبه ۱۸ مهر ۱۴۰۰
۱k

آشنایی با نظریه‌ها و مدل‌های هوشمندی که در چند دهه گذشته پدید آمدند

 

در مطلب فوق به دنیای الگوریتم‌ها و ماشین‌های هوشمند سلام کنید مقدمه‌ای کوتاه در خصوص هوش مصنوعی و تلاش‌های انجام شده در این حوزه ارائه کردیم و به دستاوردهای مهم این حوزه اشاره کردیم.

 

در حالی که نوربرت وینر فرضیه‌های مختلفی را پیشنهاد داد، اما مشهورترین آن‌ها در ارتباط با فرمان‌شناسی (cybernetics) بود. این فرضیه بر درک کنترل و ارتباط با حیوانات، مردم و ماشین‌ها متمرکز است و سعی دارد اهمیت حلقه‌های بازخوردی را نشان دهد. در سال 1948، وینر مقاله فرمان‌شناسی: نحوه کنترل و برقراری ارتباط با ماشین‌ها را منتشر کرد. این کتاب اگرچه به عنوان یک اثر علمی شناخته می‌شود، اما سرشار از معادلات پیچیده‌ای است. به همین دلیل به یکی از پرفروش ترین کتاب‌های علمی تبدیل شد که نامش در فهرست کتاب‌های پر فروش نیویورک تایمز نیز وارد شد.

 

فرمانشناسی (سایبرنتیک)

کتاب فوق کاملا گسترده بود. برخی از مباحث این فرضیه روی مکانیک نیوتن، هواشناسی، آمار، ستاره‌شناسی و ترمودینامیک متمرکز بودند. این کتاب فرضیه بی نظمی کامل، ارتباطات دیجیتال و حتی حافظه کامپیوترها را پیش‌بینی می‌کند. با این حال، کتاب فوق روی مفهوم هوش مصنوعی نیز تاثیرگذار بود. وینر مانند مک کالوچ و پیتز، مغز انسان را با کامپیوتر مقایسه کرد. علاوه بر این او حدس زد كه کامپیوتر می‌تواند شطرنج بازی كند و سرانجام استادان بزرگ را شکست دهد. او معتقد بود که یک ماشین می‌تواند همان‌گونه که بازی می‌کند، یاد بگیرد و حتی بر این باور بود که کامپیوترها قابلیت خودتکثیری را به دست خواهند آورد. اما سایبرنتیک نیز آرمان‌شهر کاملی نبود. وینر در درک نواقص کامپیوترها شبیه به نداشتن صفات انسانی (dehumanization) دچار اشتباهاتی شد. او فکر می‌کرد ماشین‌ها در نهایت این دیدگاه را به وجود خواهند آورد که انسان‌ها موجودات بی مصرفی  هستند. این دیدگاه بدون شک افراط‌ گرایانه و اشتباه بود، اما عقاید وینر تاثیر عمیقی بر پیشرفت هوش مصنوعی گذاشت.

داستان اصلی

علاقه جان مک کارتی به کامپیوترها در سال 1948 هنگامی که وی در سمیناری تحت عنوان "مکانیسم‌های مغزی در رفتار" شرکت کرد، به اوج خود رسید. سمینار مذکور حول این محور برگزار شد که چگونه ماشین‌ها می‌توانند در نهایت فکر کنند. برخی از شرکت‌کنندگان در این سمینار از پیشگامان فناوری‌های نوین بودند که جان فون نویمان، آلن تورینگ و کلود شانون از شاخص‌ترین چهره‌های این سمینار بودند. مک کارتی زندگی خود را وقف صنعت کامپیوتر کرد و برای مدت زمان مدیدی در آزمایشگاه‌های بل به تحقیق و پژوهش مشغول به کار شد. او در سال 1956، به مدت 10 هفته در دانشگاه دارتموث یک پروژه تحقیقاتی انجام داد. او پژوهش خود را "مطالعه روی هوش‌مصنوعی" نام‌گذاری کرد. این اولین بار بود که از اصطلاح هوش مصنوعی استفاده شد. همکاران او در این پژوهش عملی استاتید برجسته دانشگاه، ماروین مینسکی، ناتانیل روچستر، آلن نیول، ا. جی سلفریج، ریموند سلیمانوف و کلود شانون بودند. همه آن‌ها با گذشت زمان به یکی از مهره‌های کلیدی دنیای هوش مصنوعی تبدیل شدند. اهداف این پژوهش تحقیقاتی بلندپروازانه به شرح زیر بود:

این تحقیق بر اساس این فرضیه انجام شد که هر جنبه‌ای از یادگیری یا هر ویژگی که ریشه آن هوش باشد را می‌توان به شکلی توصیف و تشریح کرد که امکان شبیه‌سازی آن در یک ماشین وجود داشته باشد. تلاش برای پیدا کردن راه‌حلی برای این‌که ماشین‌ها صحبت کنند، پیدا کردن راه‌حلی برای شکل دادن به مفاهیم و موضوعات انتزاعی، حل برخی از مشکلاتی که انسان‌ها در پیدا کردن پاسخ برای آن‌ها ناتوان هستند و در نهایت پیاده‌سازی راه‌حلی که ماشین‌ها بتوانند عملکرد خود را بهبود بخشند از بخش‌های کلیدی این تحقیق بود. مک کارتی در دفاع از پژوهش خود در کنفرانسی که در همین رابطه برگزار شد چنین گفت: «ما فکر می‌کنیم اگر یک گروه از دانشمندان را به دقت انتخاب کنیم تا یک تابستان روی مفاهیم یاد شده کار کنند، پیشرفت قابل توجهی در حل یک یا چند مشکلات خواهیم داشت. اما این‌ حرف صحیح نیست.»

در این کنفرانس، آلن نیول، کلیف شاو و هربرت سیمون یک برنامه رایانه‌ای به‌نام تئوریسین منطق را نمایش دادند را RAND سرنام  Research and Development Corporation نشان دادند. الهام‌بخش اصلی این طرح سیمون (که بعدها موفق شد در سال 1978 برنده جایزه نوبل اقتصاد شود) بود. او هنگامی که مشاهده کرد چگونه کامپیوترها کلماتی را روی یک نقشه برای سیستم‌های پدافند هوایی چاپ می‌کنند به این فکر افتاد که ماشین‌ها می‌توانند کاری فراتر از پردازش شماره‌ها انجام دهند و قادر هستند در درک بهتر تصاویر‌، شخصیت‌ها و نمادها کمک کنند که در نهایت به دستگاه اجازه فکر کردن را می‌دهند. با توجه به نظریه‌ منطق، تمرکز بر حل قضایای مختلف ریاضی از طریق اصول ریاضی (Principia Mathematica) بود. برتراند راسل، فیلسوف، ریاضی‌دان، منطق‌دان و مورخ انگلیسی برنده جایزه نوبل صلح از جمله افرادی بودند که یک راه‌حل نرم‌افزاری جالب توجه ارائه کرد.

پیاده‌سازی نظریه منطق (Logic Theorist) کار ساده‌ای نبود. نیول، شاو و سایمون از یک مدل IBM 701 که از زبان ماشین استفاده می‌کرد، برای پیاده‌سازی این نظریه استفاده کردند. آن‌ها یک زبان سطح بالا به‌نام IPL (زبان پردازش اطلاعات) را ایجاد کردند تا به روند برنامه‌نویسی شتاب بیشتری ببخشند. برای سال‌های متمادی زبانی که این افراد خلق کردند، به زبان اصلی هوش مصنوعی تبدیل شد.

سیستم IBM 701 با یک مشکل عمده روبرو بود، این سیستم حافظه کافی برای پیاده‌سازی نظریه منطق نداشت. این مسئله باعث شد نوآوری دیگری به دنیای فناوری وارد شد این نوآوری جدید پردازش فهرست نام گرفت. این فناوری برای تخصیص پویا و بازپس‌گیری حافظه‌ای که به شکل پویا یک برنامه در آن اجرا شده بود استفاده می‌شد.

این نوآوری اجازه داد تا نظریه منطق به عنوان اولین برنامه هوش مصنوعی طراحی و پیاده‌سازی شود، اما استقبال چندانی از آن به عمل نیامد و برگزاری کنفرانس دارتموث نیز به شکل ناامید کننده‌ای به پایان رسید، به‌طوری که برخی به‌کارگیری عبارت "هوش مصنوعی" را مورد انتقاد قرار دادند.  پس از این شکست تلخ، محققان سعی کردند راه‌حل‌های جایگزین دیگری همچون پردازش پردازش اطلاعات پیچیده را پیشنهاد دهند، اما نظریه پردازش اطلاعات پیچیده به اندازه هوش مصنوعی جذاب نبودند و این طرح نیز نیمه کاره رها شد. با این وجود مک کارتی، همچنان به ایده خود که پیاده‌سازی یک ایده نوآوری در هوش مصنوعی بود ادامه داد. در اواخر دهه 50 میلادی، او زبان برنامه نویسی Lisp را توسعه داد که به دلیل سهولت در استفاده از داده‌های غیر عددی، اغلب در پروژه‌های هوش مصنوعی استفاده می‌شد.

 او همچنین مفاهیم یکسری مفاهیم برنامه‌نویسی همچون بازگشتی، نوع‌های پویا و جمع‌آوری زباله (Garbage Collection ) را ابداع کرد. Lisp هنوز هم در حوزه‌های روباتیک و برنامه‌های کاربردی تجاری استفاده می‌شود. مک کارتی در کنار توسعه زبان، آزمایشگاه هوش مصنوعی MIT را تأسیس کرد. در سال 1961 او مفهوم اشتراک‌-زمانی کامپیوترها را پیشنهاد داد که تحولی بزرگ در صنعت به وجود آورد. رویکردی که در نهایت به توسعه اینترنت و رایانش ابری منجر شد. چند سال بعد او آزمایشگاه هوش مصنوعی استنفورد را تأسیس کرد. در سال 1969 وی مقاله‌ای به‌نام "اتومبیل‌های کنترل شده با رایانه‌ها " را نوشت و شرح داد که چگونه یک شخص می‌تواند با یک صفحه‌کلید و یک دوربین تلویزیونی خودرویی را هدایت کند. سرانجام در سال 1971 جایزه تورینگ را به‌دست آورد که در اصل جایزه نوبل علوم کامپیوتر محسوب می‌شود. مک کارتی در سخنرانی سال 2006 خاطرنشان کرد که نسبت به پیشرفت هوش‌مصنوعی خوش‌بین است، اما بر این باور است که انسان‌ها در شناسایی اکتشافی خودشان عملکرد خوبی ندارند.

عصر طلایی هوش مصنوعی

از سال 1956 تا 1974 صنعت هوش‌مصنوعی یکی از داغ‌ترین موضوعات دنیای فناوری بود. یک کاتالیزور مهم که در حوزه فناوری‌های کامپیوتری رشد بسیار سریعی داشت. سامانه‌های عظیم به تدریج جای خود را به سامانه‌هایی دادند که بر پایه مدارهای مجتمع کار می‌کنند و اندازه‌ای به مراتب کوچک‌تر از نمونه‌های قبلی داشتند که خود عامل مهمی در پیشرفت و شکوفایی هوش‌مصنوعی به شمار می‌رود. دولت فدرال سرمایه‌گذاری کلانی روی فناوری‌های جدید انجام داد که بی ارتباط با اهداف بلندپروازانه برنامه فضایی آپولو و پردازش‌های محاسباتی جنگ سرد نبود.

در ارتباط با هوش‌مصنوعی، منبع اصلی تامین بودجه آژانس پروژه‌های تحقیقاتی پیشرفته آرپا (ARPA) بود. بودجه لازم برای انجام پروژه‌ها با کمترین سخت‌گیری ممکن تخصیص داده می‌شد، زیرا هدف این بود که ایده‌های نوآورانه به سرعت به بلوغ و موفقیت دست پیدا کنند. جی‌.سی‌.آر لیکلیدر یکی از رهبران آرپا شعار "اصل مهم سرمایه‌ انسانی و نه پروژه است" را پیشنهاد داد. بخش اعظمی از بودجه تخصیص یافته به استنفورد، MIT، آزمایشگاه‌های لینکلن و دانشگاه کارنگی ملون پرداخت می‌شد. به غیر از شرکت آی‌بی‌ام بخش خصوصی دخالت کمی در توسعه هوش‌مصنوعی داشت. لازم به توضیح است که تا اواسط دهه 1950 آی‌بی‌ام به شکل جدی به مبحث هوش مصنوعی وارد نشده بود و بیشتر روی تجارت کامپیوترهای شخصی متمرکز بود. در واقع علت ورود دیگر هنگام آی‌بی‌ام به این حوزه ترس از ضرر قابل توجهی بود که به واسطه عدم تمایل مشتریان ممکن بود آینده این شرکت را با چالش جدی روبرو کند. به همین دلیل مدیران آی‌بی‌ام نمی‌خواستند هیچ‌گونه ریسکی انجام دهند. به عبارت دیگر، بخش اعظمی از نوآوری‌ها در حوزه هوش مصنوعی به واسطه تحقیقات دانشگاهی انجام می‌شد. به عنوان مثال، در سال 1959، نیول، شاو و سیمون با تدوین برنامه‌ای تحت عنوان "حل‌کننده مشکلات عمومی" به دنبال بازتر کردن مرزهای محدود هوش مصنوعی بودند. برنامه‌ای که آن‌ها طراحی کردند از هوش مصنوعی در ارتباط با حل مسائل ریاضی همچون برج هانوی استفاده می‌کرد.

برنامه‌های دیگری نیز طراحی شدند که سعی داشتند سطح هوش مصنوعی را بهبود بخشند که موارد زیر بخشی از این تلاش‌ها بود:

SAINT یا Symbolic Automatic Integrator (1961): این برنامه که توسط جیمز اسلاگ محقق MIT ساخته شد برای کمک به حل مسائل حساب و دیفرانسیل ترم اول دانشگاه طراحی شده بود. این برنامه بعدها در برنامه‌های دیگری که SIN و MACSYMA نامیده می‌شدند به‌روزرسانی شد تا بتواند محاسبات ریاضی پیشرفته‌تری را انجام دهد. SAINT در واقع اولین نمونه از یک سیستم خبره بود که شاخه جدیدی در دنیای هوش مصنوعی به وجود آورد که در مقالات آتی با آن بیشتر آشنا خواهیم شد.

ANALOGY (1963): این برنامه نیز توسط توماس ایواتز استاد MIT ساخته شد. این نرم‌افزار نشان داد که یک کامپیوتر می‌تواند مشکلات آنالوژی مربوط به آزمون‌های ضریب هوشی را حل کند.

STUDENT (1964): نرم‌افزار فوق توسط دنیل باربو به عنوان تز دکترای هوش مصنوعی زیر نظر ماروین مینسکی ساخته شد. این سیستم از پردازش زبان طبیعی (NLP) برای حل مشکلات جبر دانش‌آموزان دبیرستانی استفاده می‌کرد.

ELIZA (1965): جوزف ویزنباوم، استاد MIT این برنامه را طراحی کرد که در مدت زمان کوتاهی به یکی از پدیده‌های زمان خود تبدیل شد و حتا رسانه‌ها نیز به بررسی این برنامه پرداختند. نام این برنامه برگرفته از شخصیتی در رمان جورج برنارد شاو play Pygmalion بود که نقش یک روانكاو را داشت. این برنامه به گونه‌ای طراحی شده بود که کاربر می‌تواست سوالات را تایپ کند و الیزا مشاوره‌ای به او ارائه می‌کرد. در حقیقت برنامه الیزا اولین chatbot بود که طراحی شد. این برنامه و فناوری‌های زیربنایی آن به اندازه‌ای خوب طراحی شدنه بودند که برخی از استفاده‌کنندگان تصور می‌کردند که این برنامه یک انسان واقعی است که ویزنباوم در مصاحبه‌ای اعلام کرد از این مسئله نگران است. 

Computer Vision (1966): در داستانی افسانه‌ای ماروین مینسکی استادا دانشگاه MIT به دانشجویی به‌نام جرالد جی سوسمن گفت که تابستان را صرف متصل کردن یک دوربین به یک کامپیوتر کند و به کامپیوتر یاد دهد مناظری که دیده است را توصیف کند. جرالد جی سوسمن این‌کار را انجام داد و سیستمی طراحی کرد که قادر بود الگوهای اساسی را تشخیص دهد. برنامه‌ای که او طراحی کرد اولین برنامه بینایی ماشین لقب گرفت.

Mac Hack(1968): ریچارد دی گرینبلات پروفسور MIT برنامه‌ای ابداع کرد که قادر به شطرنج‌بازی بود. برنامه‌ای که او طراحی کرد اولین نمونه‌ای بود که موفق شد در یک مسابقه واقعی شرکت کند و رتبه C مسابقات را کسب کرد.

Hearsay I(اواخر دهه 1960): پروفسور راج ردی سیستم تشخیص گفتار مداوم را توسعه داد. برخی از دانشجویان او راهش را ادامه دادند و شرکت دراگون سيستم را تاسیس کردند که به یکی از بزرگ‌ترین شرکت‌ها در حوزه فناوری تبدیل شد.

در این بازه زمانی، کتاب‌ها و مقاله‌های دانشگاهی متعددی منتشر شدند که پیرامون مباحثی همچون روش‌های بیزی، یادگیری ماشین و بینایی ماشین بودند، اما به‌طور کلی دو نظریه اصلی در مورد هوش مصنوعی وجود دارد. یکی از آن‌ها توسط مینسکی هدایت می‌شد که اعلام می‌کرد ما به سیستم های نمادین نیاز داریم، این بدان معنی است که هوش‌مصنوعی باید مبتنی بر منطق کامپیوترهای سنتی یا برنامه‌ریزی شده باشد، یعنی از رویکردهایی همچون If-then-Else استفاده کند.

نظریه دوم توسط فرانک روزنبلات مطرح شد که معتقد بود هوش مصنوعی باید از سیستم‌هایی مشابه مغز مانند شبکه‌های عصبی استفاده کند و به جای آن‌که بر پایه سلول‌های عصبی داخلی کار کند نقش یک گیرنده را داشته باشد. بر پایه این نظریه یک سیستم بر پایه داده‌هایی که دریافت می‌کند به مرور زمان نکاتی را یاد می‌گیرد.

در سال 1957، روزنبلات اولین برنامه کامپیوتری مبتنی بر این نظریه به‌نام Mark 1 Perceptron را طراحی کرد. این برنامه‌ از دوربین‌هایی استفاده می‌کرد تا تفاوت میان دو تصویر با تفکیک‌پذیری 20 در 20 پیکسل را تشخیص دهد. Mark 1 Perceptron از داده‌هایی استفاده می‌کرد که وزن تصادفی داشتند و بر پایه الگوریتم زیر کار می‌کرد:

1.  یک ورودی دریافت کن و آن‌را وارد کن و جواب را برای خروجی پرسپترون (perceptron) ارسال کن.

 2. اگر خروجی و الگو متناظر نیستند، در این حالت

الف) اگر خروجی باید 0 باشد اما 1 است، وزن را 1 را کاهش بده.

 ب) اگر خروجی باید 1 باشد اما 0 است، وزن ‌را 1 واحد افزایش بده.

 3. مراحل 1 و 2 را تکرار کن تا نتایج دقیق شوند.

دستاوردهای فوق به اندازه‌ای در پیشرفت هوش‌مصنوعی نقش موثر داشتند که نیویورک تایمز در مقاله‌ای فرضیه روزنبلات را ستود و این‌گونه نوشت: «اکنون نهادهای نظامی انتظار دارند کامپیوترهایشان بتواند راه بروند، صحبت کنند، مشاهده کنند، مطالبی بنویسند، قابلیت خودتکثیری داشته باشند و از وجود خود آگاه باشند.»

با وجود ارائه طرح پرسپترون هنوز هم مشکلات متعددی وجود داشت. اولین مشکل این بود که شبکه عصبی فقط یک لایه داشت (به دلیل کمبود توان محاسباتی در آن زمان)، تحقیقات مغز هنوز در مراحل اولیه بودند و علم هنوز به درجه بالایی از دانش در ارتباط با علوم شناختی دست پیدا نکرده بود.

در شماره آینده مبحث فوق را ادامه می‌دهیم.

نویسنده: حمیدرضا تائبی

machinedesign

GoogleLibrary

techopedia

 

 

پربازدیدترین مقالات