اتاق چینی

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو

اتاق چینی(به انگلیسی: Chinese Room) یک آزمایش ذهنی است که اولین بار توسط مقاله جان سرل به نام «ذهن‌ها، مغزها، و برنامه‌ها» (به انگلیسی: Minds, Brains, and Programs) در مجله «علوم رفتاری و ذهنی» (به انگلیسی: Behavioral and Brain Sciences) در سال ۱۹۸۰ منتشر شد. وی با این سوال که آیا یک برنامه هوشمند مترجم کامپیوتری که توانایی ترجمه از زبان چینی به زبان انگلیسی را دارد، ضرورتی برای فهم موضوع مورد ترجمه دارد و یا خیر، و با تشبیه ذهن به یک برنامه هوشمند کامپیوتری این استدلال را در برابر مواضع فلسفی کارکردگرایی و نظریه محاسباتی ذهن که در آنها، ذهن به عنوان یک محاسبه‌گر یا دستکاری کننده‌ی نماد عمل می‌کند، قرار دهد. [۱]

اتاق چینی[ویرایش]

مقاله‌ی او بر مبنای این پرسش بود که: اگر یک ماشین بتواند به صورت متقاعدکننده‌ای یک مکالمهٔ هوشمند را شبیه‌سازی کند، آیا ضروری است که آن را حتما بفهمد؟

سرل می گوید: فرض کنید من درون یک اتاق در بسته محبوس شده باشم و یک دسته بزرگ نوشته‌های چینی نیز به من داده شده باشد. علاوه بر این فرض کنید (همان طور که واقعاً این طور است) من چیزی از زبان چینی نمی‌دانم نه نوشتن و نه خواندن و حتی من مطمئن نیستم که بتوانم بین نوشته‌های چینی یا زبان‌هایی شبیه آن مثلاً ژاپنی و شکلک‌های بی‌معنی تفاوت قائل شوم. از نظر من نوشته‌های چینی فقط پر از شکلکهای بی‌معنی است. حالا فرض کنید بعد از اولین دسته از نوشته‌های چینی، دسته دومی از یادداشت‌های چینی به همراه مجموعه‌ای از قواعد که دسته اول را به دسته دوم مربوط می‌سازد به من داده شده است. قواعد به زبان انگلیسی هستند، و من این قواعد را به همان خوبی می‌فهمم که یک فرد بومی انگلیسی زبان می‌فهمد. قواعد مرا قادر می‌سازند تا یک مجموعه از نمادهای صوری را به یک مجموعه دیگر از نمادهای صوری مرتبط سازم، «صوری» در اینجا فقط به معنای این است که من نمادها را فقط با استفاده از شکلشان شناسایی می‌کنم.

حال همچنین فرض کنید دسته سوم نمادهای نوشته شده چینی به همراه دستورالعمل‌هایی باز هم به زبان انگلیسی به من داده شده است که مرا قادر می‌سازد تا عناصر دسته سوم را به دو دسته اول مربوط کنم، این قواعد به من چگونگی ارتباط نمادهای چینی خاصی با یک جور اشکال خاص را در پاسخ به یک جور اشکال خاص که در دسته سوم به من داده شده است، تعلیم می‌دهند. مردمی که تمام این نمادها را به من می‌دهند به دسته اول می‌گویند «نمایشنامه» به دسته دوم می‌گویند «داستان» و به دسته سوم می‌گویند «سوالها»، این درحالی است که من نمی‌دانم. به علاوه به نمادهایی که من در پاسخ به دسته سوم به آنها باز می‌گردانم می‌گویند «پاسخ به سوالها» و به مجموعه قواعدی که به زبان انگلیسی است که آنها به من داده‌اند می‌گویند «برنامه».

بعد از آن سرل می گوید که کسانی که در بیرون اتاق هستند و پاسخ‌های مرا دریافت می‌کنند تصور می‌کنند شخصی که درون اتاق است چینی می‌داند. سرل می‌گوید این دقیقاً همان کاری است که رایانه می‌کند یعنی یک سری ورودی می‌گیرد و یک سری خروجی می‌دهد، اما آیا من که نقش نرم‌افزار کامپیوتر را داشتم چیزی از آن داستان متوجه شدم؟ آیا آن را فهمیدم؟

اتاق چینی‌ها دقیقاً همان طراحی را دارد که هر کامپیوتر مدرنی دارد. و طبق معماری جان فون نویمان (به انگلیسی: John von Neumann)است به طوری که شامل یک برنامه (قواعد به زبان انگلیسی)، مقداری حافظه (دسته‌های کاغذ)، یک CPU که دستورالعمل‌ها را دنبال می‌کند (انسان) و یک وسیله برای نوشتن نمادها در حافظه (مداد و پاک‌کن) می‌باشد. یک ماشین با این طراحی در علوم کامپیوتر نظری به عنوان یک ماشین تورینگ کامل شناخته می‌شود، چون قابلیت‌های ضروری این را دارد تا بتواند تمام محاسباتی که توسط ماشین تورینگ انجام می‌شود را انجام دهد. به بیان دیگر اتاق چینی‌ها می‌تواند هر آنچه که سایر کامپیوترها انجام می دهند را انجام دهد.

روش کار اتاق چینی[ویرایش]

اتاق چینی (و همه کامپیوترهای مدرن) برای انجام محاسبات و شبیه سازی‌ها، اشیا فیزیکی را دستکاری می‌کنند. محققان هوش مصنوعی، آلن نیوول (به انگلیسی: Alan Newell) و هربرت الکساندر سیمون (به انگلیسی: Herbert Simon) به این نوع از ماشین «سیستم نماد فیزیکی» می‌گویند. همچنین این سیستم با سیستم صوری (به انگلیسی: formal systems) در منطق ریاضیات معادل می‌باشد. سرل بر روی این حقیقت تاکید دارد که این نوع از دستکاری نماد دستوری(syntactic) است (با قرض گرفتن این واژه از مطالعات گرامری). CPU نمادها را بدون هیچ علمی از معنای(semantics) نمادها، با استفاده از نوعی قواعد دستوری دستکاری می‌کند.

نتایج سرل از اتاق چینی[ویرایش]

جان سرل توانست بین دو فرضیه مهم تمایز قائل شود و آنها را فرضیه هوش مصنوعی قوی و فرضیه هوش مصنوعی ضعیف نامید: فرضیه اول می گوید: یک سیستم هوش مصنوعی می تواند فکر کند و ذهن داشته باشد. فرضیه دوم می گوید: یک سیستم هوش مصنوعی (فقط) می تواند مثل این عمل کند که فکر می کند و ذهن دارد.

پانویس[ویرایش]

  1. John R. Searle. «Minds, Brains, and Programs». The Behavioral and Brain Sciences, vol. 3. Copyright 1980 Cambridge University Press.