نظریه محاسباتی ذهن

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری پرش به جستجو
فارسیEnglish

نظریه محاسباتی ذهن، در فلسفه، دیدگاهی است که در آن ذهن انسان به عنوان یک سیستم پردازش اطلاعات تصور می‌شود و تفکر یک شکل از محاسبه تلقی می‌شود. این نظریه در شکل مدرن خود، در سال ۱۹۶۱ توسط هیلاری پاتنم ارائه شد و در دههٔ ۶۰ و ۷۰ توسط جری فودور گسترش یافت.[۱] این دیدگاه در روانشناسی دیدگاه رایجی است و نظریه پردازان روانشناسی تکاملی آن را به عنوان یک اصل می‌پذیرند.

در این نظریه، ذهن به عنوان یک محاسبه‌گر یا دستکاری کنندهٔ نماد عمل می‌کند. ذهن ورودی را از دنیای طبیعی گرفته، محاسبه و پردازش می‌کند و خروجی‌های جدیدی را به شکل‌های انتزاعی یا واقعی درست می‌کند. یک محاسبه، یک فرایند گرفتن ورودی و دنبال کردن مرحله به مرحلهٔ الگوریتم برای بدست آوردن یک خروجی مشخص است. نظریه محاسباتی ذهن ادعا می‌کند که جنبه‌های معینی از ذهن وجود دارد که فرایندهای مرحله به مرحله‌ای را برای پردازش واقعیت‌های دنیای واقعی دنبال کند؛ با این حال این نظریه ادعا نمی‌کند که محاسبه برای تفکر کردن کافی است.

نظریه محاسباتی ذهن برای ورودی یک محاسبه به واقعیت‌های خارجی نیاز دارد که به شکل نمادهایی از اشیاء مختلف است. یک کامپیوتر (محاسبه‌گر) نمی‌تواند یک شئ واقعی را محاسبه کند بلکه باید آن را به شئ‌ای در شکلی جدید ترجمه شده را محاسبه کند. نظریه محاسباتی ذهن و نظریه ارائهٔ ذهن هر دو به این که حالات ذهنی به صورت واقعیت‌های خارجی ارائه شوند نیاز دارند و از این نظر به هم مرتبط‌اند. یکی از تفاوت‌های موجود در نظریه این است که نظریه ارائهٔ ذهن، ادعا می‌کند که همه حالات ذهنی واقعیات خارجی اند؛ در حالی که نظریه محاسباتی می‌گوید که حالات ذهنی قطعی مثل درد یا افسردگی ممکن است که واقعیت خارجی نباشند و لذا برای اعمال محاسباتی مناسب نباشند. این حالات ذهنی غیرقابل ارائه (در خارج) به عنوان کوالیا (کیفیات ذهنی) شناخته می‌شوند نظریه محاسباتی ذهن به علاوه با «زبان تفکر» هم مرتبظ‌اند. نظریهٔ «زبان تفکر» به ذهن اجازه می‌دهد که واقعیات خارجی پیچیده تری را به کمک معنا پردازش کند.

تشبیه محاسبه گر[ویرایش]

نظریه محاسباتی ذهن همان تشبیه محاسبگر نیست؛ همان‌طور که ذهن در واقع مانند یک محاسبگر عمل می‌کند ولی نه کاملاً.[۲] نظریه محاسباتی ذهن فقط از چند اصل مشابه با آنچه در محاسبات دیجیتال یافت می‌شود، استفاده می‌کند.[۲]

محاسبگر فقط به معنی یک کامپیوتر الکترونیکی مدرن نیست بلکه یک دست کاری‌کننده نمادهاست که اعمال گام به گام را برای محاسبه روی ورودی و ایجاد خروجی دنبال می‌کند. آلن تورینگ این نوع ماشین محاسبه گر را با ماشین تورینگ توصیف می‌کند.

مترادف‌های وضعیت‌های ذهنی[ویرایش]

نظریه محاسباتی ذهن می‌گوید که ذهن به عنوان یک عملگر نمادین عمل می‌کند و این که پدیده‌های ذهنی، پدیده‌های نمادین اند؛ همان‌طور که مترادف‌های یک زبان، اشکالی از کلمات و جملاتی است که به معانی آن‌ها مربوط است، مترادف‌های وضعیت‌های ذهنی، معانی پدیده‌ها هستند و همین تعریف «کلمات» زبان تفکر است. اگر این وضعیت‌های اساسی ذهنی بتوانند یک معنی خاص داشته باشند (همانند کلمات یک زبان که این گونه‌اند) آنگاه این، به این معنی است که وضعیت‌های ذهنی پیچیده‌تر (تفکرات) می‌توانند ایجاد شوند؛ وضعیت‌هایی که تا قبل از این، هرگر ایجاد نشده‌اند؛ درست همان طوری که جملات جدیدی که خوانده می‌شوند می‌توانند فهمیده شوند حتی اگر هرگز شناخته شده نباشند (به شرطی که اجزای اساسی فهمیده شوند و ساختار نحوی درست داشته باشند).

نقد نظریه محاسباتی ذهن[ویرایش]

استدلال‌هایی در مقابل نظریه محاسباتی ذهن وجود دارد. برخی از انتقادها شامل مباحث فیزیکی فرایند محاسبات می‌شوند. رندی گالیستل (به انگلیسی: C. Randy Gallistel) استاد دانشگاه راتگرز، در «آموزش و ارائه» در مورد برخی از مفاهیم یک سیستم واقع محاسباتی ذهن می‌نویسد. اساساً گالیستل با اشاره به محدودیت‌های ترمودینامیک در مدارهای مغزی این نظریه را نقد می‌کند. با حجم بالایی از اطلاعات، و سطح پایین از دست دادن مواد ضروری، ما باید بپرسیم که این مقدار انرژی از کجا می‌آید و چگونه این گرما و حرارت پراکنده می‌شود.[۳]

همچنین می‌تواند استدلال کرد که تمام افکار در مغز در واقع یک محاسبه نیست. این دید که به فکر (یا فرایند فکر) می‌توان مثل یک سیستم مبتنی بر عدد نگاه کرد (که بتوان آن را در کامپیوتر عادی حل کرد؛ مانند مسائل ماشین تورینگ) نیاز به قبول نظریه محاسباتی ذهن دارد. اگر این دید که می‌توان افکار را به اعداد تقلیل داد درست نیست، پس امکان ندارد نظریه محاسباتی ذهن درست باشد. در اینجا ایراد دیگری نیز بر این نظریه وارد است.

اتاق چینی[ویرایش]

جان سرل بیان کرده بود که آزمایش فکر که به اتاق چینی معروف شده‌است این مشکل را نشان می‌دهد. تصور کنید فردی در یک اتاق بدون هیچ گونه ارتباط با بیرون قرار دارد و تنها ارتباطش با دنیای بیرون یک تکه کاغذ است که آن را می‌تواند از زیر در رد و بدل کند. او با استفاده از یک سری کتاب برای رمزگشایی اقدام به یافتن «جواب» نوشتهٔ روی کاغذ می‌کند. تمام نمادهای رو کاغذ چینی اند و او می‌داند در کدام کتاب پاسخ این نماد وجود دارد و با نگاه کردن به آن می‌تواند پاسخ را بنویسد. در این صورت مرد چینی ای که در بیرون اتاق حضور دارد متوجه مکالمه می‌شود ولی مرد داخل اتاق متوجه نیست که چه می‌کند. این همان چیزی است که نظریه محاسباتی ذهن به ما می‌گوید؛ مدلی که در آن ذهن به سادگی نمادها را ترجمه می‌کند و نمادهای دیگری را به عنوان خروجی ایجاد می‌کند. در این صورت پس ذهن اصلاً نمی‌تواند یاد بگیرد و فکر کند. با این حال می‌توان در پاسخ به این استدلال گفته شود که مرد و کاغذ هیچ درکی از چینی ندارند، اگر چه این نقص از طبیعت آن‌ها برمی آید؛ در مقابل اگر به آن مرد، چینی بیاموزیم، آنگاه یک سیستم پیچیدهٔ ارتباطی زبان چینی خواهیم داشت.

سرل سوالات بیشتری را دربارهٔ آنچه که ما به منزلهٔ محاسبه در نظر می‌گیریم مطرح می‌کند:

دیوار پشت سر من همین الان در حال اجرای برنامه ورد استار (به انگلیسی: Wordstar) است، چون برخی از الگوهای جنبش مولکولی همریخت با ساختار الگوریتم ورد استار است. اما اگر دیوار ورد استار را پیاده‌سازی کرده بود، پس یک دیوار به اندازه کافی برای اجرای هر برنامه از جمله برنامه‌های اجرا شده در مغز نیز پیچیده‌تر می‌شد.[۴]

هیلاری پاتنم به‌طور مشابه ادعا می‌کند:

هر سیستم معمولی بازی یک اوتوماتای نامتناهی محض متناظر است[۵]

دانشمندان علوم کامپیوتر به این نقد با توسعهٔ توصیف مسائلی که قابل پیاده‌سازی اند پاسخ داده‌اند.[۶][۷] علاوه بر این، راجر پنروز ایده‌ای را پیشنهاد کرده‌است که می‌گوید

ذهن انسان از مفاهیم محاسبه‌ای آشنای ما، برای کشف و حل مسائل پیچیدهٔ ریاضی استفاده نمی‌کند. این بدین معنی است که یک ماشین تورینگ معمولی نمی‌تواند مسائل ریاضی مشخصی را که انسان توانایی حل آن‌ها را دارد، حل کند».[۸]

دانشمندان برجسته[ویرایش]

  • دنیل دنت فرضیهٔ پیش نویس‌های چندگانه[۹] (به انگلیسی: Multiple Drafts) را پیشنهاد می‌کند، که در آن آگاهی مفهومی است که در ارتباط با فضا و زمان در مغز است ولی این ارتباط واقعاً روشن و واضح نیست. آگاهی چیز دیگری جز محاسبه نیست یا به بیان دیگر هیچ تئاتر دکارتی[۱۰] وجود ندارد که شما در آن از محاسبات آگاه باشید.
  • جری فُدُر بیان می‌کند که وضعیت‌های ذهنی، مانند باورها و آرزوها، پل ارتباطی است بین پدیده‌های دنیای واقعی با مفهیم انتزاعی ذهنی. او مدعی می‌شود که این پدیده‌ها می‌توانند به وسیلهٔ عناصر زبان تفکر(LOT) توصیف شوند. علاوه بر این، این زبان نه تنها یک توصیف‌کننده افکار است بلکه به خودی خود شکل دهندهٔ آن‌ها در مغز نیز هست. فُدُر به نوعی کارکردگرایی پایبند است و مدعی است که تفکر و دیگر فرایندهای ذهنی شامل یک سری محاسبه بر روی پدیده‌هایی است که تبدیل به زبان تفکر شده‌اند.
  • دیوید مَر بیان می‌کند که فرایندهای شناختی را در سه سطح توصیف می‌شوند: سطح محاسباتی (که مسائل محاسباتی را توصیف می‌کند (به عنوان مثال تطبیق ورودی به خروجی) که توسط فرایند شناختی محاسبه می‌شوند)؛ سطح الگوریتمی (که الگوریتمی برای حل مسئله در سطح محاسباتی ارائه می‌دهد) و سطح اجرایی (که اجرای فیزیکی الگوریتم‌ها را از طریق سطح الگوریتمی در بسطر بیولوژیکی توصیف می‌کند، به عنوان مثال خود مغز). (مارس ۱۹۸۱)
  • اولریک نیسر اصطلاح «روانشناسی شناختی» را در کتاب خود که در سال ۱۹۶۷ منتشر کرد (روانشناسی شناختی) به کار برد، نیسر انسان‌ها را به عنوان یک سیستم پویای پردازش اطلاعات که فعالیت‌های ذهنی آن ممکن است توسط محاسبات ایجاد شود، توصیف کرده‌است.
  • استیون پینکر «زبان غریزه» را به عنوان یک تکامل در انسان که به صورت یک ظرفیت پیش فرض برای سخن گفتن است در نظر گرفت (در حالی که برای نوشتن این گونه نیست).
  • هیلاری پاتنم کارکردگرایی (در فلسفه ذهن) را برای توصیف آگاهی پیشنهاد کرده‌است، این ایده بیانگر آن است که آگاهی معادل یک سری محاسبات است، بدون توجه به این که این محاسبات در مغز، کامپیوتر یا یک مغزِ در آزمایشگاه صورت گرفته باشد.
  • برونو مارشال، استاد دانشگاه آزاد بروکسل (بلژیک)، در رساله دکتری[۱۱] خود (دانشگاه لیل، فرانسه، ۱۹۹۸، Calculabilité،physique et) ادعا کرده‌است که امور غیر مترقبه فیزیکی با تئوری محاسباتی ای که با استفاده از برهان‌هایی مانند برهان جفت‌کننده جهانی (به انگلیسی: Universal Dovetailer) یا برهان نمودار فیلم (به انگلیسی: Movie Graph) شکل گرفته‌اند، سازگار نیست.

نظریه‌های جایگزین[ویرایش]

جستارهای وابسته[ویرایش]

جستارهای خارجی[ویرایش]

منابع[ویرایش]

  1. Horst, Steven, (2005) "The Computational Theory of Mind" in The Stanford Encyclopedia of Philosophy
  2. ۲٫۰ ۲٫۱ Pinker, Steven. The Blank Slate. New York: Penguin. 2002
  3. Gallistel, C. R. (1990) The organization of learning. Cambridge, MA: Bradford Books/MIT Press
  4. Searle, J.R. (1992), The rediscovery of the mind
  5. Putnam, H. (1988), Representation and reality
  6. Chalmers, D.J. (1996), "Does a rock implement every finite-state automaton?", Synthese, ۱۰۸ (۳), p. ۳۰۹–۳۳۳ Retrieved on 2009-05-27.
  7. Edelman, ‎Shimon (2008), "On the Nature of Minds, or: Truth and Consequences", Journal of Experimental and Theoretical AI, ۲۰, p. ۱۸۱–۱۹۶ Retrieved on 2009-06-12.
  8. Roger Penrose Mathematical intelligence. In Jean Khalfa, editor, What is Intelligence?, chapter 5, pages 107-136. Cambridge University Press, ambridge, United Kingdom, 1994.
  9. ویکی‌پدیای انگلیسی Multiple Drafts
  10. ویکی‌پدیای انگلیسی تئاتر دکارتی
  11. Bruno Marchal argues that physical supervenience is not compatible with computational theory

In philosophy, the computational theory of mind (CTM) refers to a family of views that hold that the human mind is an information processing system and that cognition and consciousness together are a form of computation. Warren McCulloch and Walter Pitts (1943) were the first to suggest that neural activity is computational. They argued that neural computations explain cognition.[1] The theory was proposed in its modern form by Hilary Putnam in 1967, and developed by his PhD student, philosopher and cognitive scientist Jerry Fodor in the 1960s, 1970s and 1980s.[2][3] Despite being vigorously disputed in analytic philosophy in the 1990s due to work by Putnam himself, John Searle, and others, the view is common in modern cognitive psychology and is presumed by many theorists of evolutionary psychology.[citation needed] In the 2000s and 2010s the view has resurfaced in analytic philosophy (Scheutz 2003, Edelman 2008).[citation needed]

The computational theory of mind holds that the mind is a computational system that is realized (i.e. physically implemented) by neural activity in the brain. The theory can be elaborated in many ways and varies largely based on how the term computation is understood. Computation is commonly understood in terms of Turing machines which manipulate symbols according to a rule, in combination with the internal state of the machine. The critical aspect of such a computational model is that we can abstract away from particular physical details of the machine that is implementing the computation.[3] This is to say that computation can be implemented by silicon chips or neural networks, so long as there is a series of outputs based on manipulations of inputs and internal states, performed according to a rule. CTM, therefore holds that the mind is not simply analogous to a computer program, but that it is literally a computational system.[3]

Computational theories of mind are often said to require mental representation because 'input' into a computation comes in the form of symbols or representations of other objects. A computer cannot compute an actual object, but must interpret and represent the object in some form and then compute the representation. The computational theory of mind is related to the representational theory of mind in that they both require that mental states are representations. However, the representational theory of mind shifts the focus to the symbols being manipulated. This approach better accounts for systematicity and productivity.[3] In Fodor's original views, the computational theory of mind is also related to the language of thought. The language of thought theory allows the mind to process more complex representations with the help of semantics. (See below in semantics of mental states).

Recent work has suggested that we make a distinction between the mind and cognition. Building from the tradition of McCulloch and Pitts, the Computational Theory of Cognition (CTC) states that neural computations explain cognition.[1] The Computational Theory of Mind asserts that not only cognition, but also phenomenal consciousness or qualia, are computational. That is to say, CTM entails CTC. While phenomenal consciousness could fulfill some other functional role, computational theory of cognition leaves open the possibility that some aspects of the mind could be non-computational. CTC therefore provides an important explanatory framework for understanding neural networks, while avoiding counter-arguments that center around phenomenal consciousness.

"Computer metaphor"

Computational theory of mind is not the same as the computer metaphor, comparing the mind to a modern-day digital computer.[4] Computational theory just uses some of the same principles as those found in digital computing.[4] While the computer metaphor draws an analogy between the mind as software and the brain as hardware, CTM is the claim that the mind is a computational system.

'Computational system' is not meant to mean a modern-day electronic computer. Rather, a computational system is a symbol manipulator that follows step by step functions to compute input and form output. Alan Turing describes this type of computer in his concept of a Turing Machine.

Early proponents

One of the earliest proponents of the computational theory of mind was Thomas Hobbes, who said, "by reasoning, I understand computation. And to compute is to collect the sum of many things added together at the same time, or to know the remainder when one thing has been taken from another. To reason therefore is the same as to add or to subtract."[5] Since Hobbes lived before the contemporary identification of computing with instantiating effective procedures, he cannot be interpreted as explicitly endorsing the computational theory of mind, in the contemporary sense.

Causal picture of thoughts

At the heart of the Computational Theory of Mind is the idea that thoughts are a form of computation, and a computation is by definition a systematic set of laws for the relations among representations. This means that a mental state represents something if and only if there is some causal correlation between the mental state and that particular thing. An example would be seeing dark clouds and thinking “clouds mean rain”, where there is a correlation between the thought of the clouds and rain, as the clouds causing rain. This is sometimes known as Natural Meaning. Conversely, there is another side to the causality of thoughts and that is the non-natural representation of thoughts. An example would be seeing a red traffic light and thinking “red means stop”, there is nothing about the color red that indicates it represents stopping, and thus is just a convention that has been invented, similar to languages and their abilities to form representations.

Semantics of mental states

The computational theory of mind states that the mind functions as a symbolic operator, and that mental representations are symbolic representations; just as the semantics of language are the features of words and sentences that relate to their meaning, the semantics of mental states are those meanings of representations, the definitions of the ‘words’ of the language of thought. If these basic mental states can have a particular meaning just as words in a language do, then this means that more complex mental states (thoughts) can be created, even if they have never been encountered before. Just as new sentences that are read can be understood even if they have never been encountered before, as long as the basic components are understood, and it is syntactically correct. For example: “I have eaten plum pudding every day of this fortnight.” While it's doubtful many have seen this particular configuration of words, nonetheless most readers should be able to glean an understanding of this sentence because it is syntactically correct and the constituent parts are understood.

Criticism

A range of arguments have been proposed against physicalist conceptions used in Computational Theories of Mind.

An early, though indirect, criticism of the Computational Theory of Mind comes from philosopher John Searle. In his thought experiment known as the Chinese room, Searle attempts to refute the claims that artificially intelligent systems can be said to have intentionality and understanding and that these systems, because they can be said to be minds themselves, are sufficient for the study of the human mind.[6] Searle asks us to imagine that there is a man in a room with no way of communicating with anyone or anything outside of the room except for a piece of paper with symbols written on it that is passed under the door. With the paper, the man is to use a series of provided rule books to return paper containing different symbols. Unknown to the man in the room, these symbols are of a Chinese language, and this process generates a conversation that a Chinese speaker outside of the room can actually understand. Searle contends that the man in the room does not understand the Chinese conversation. This is essentially what the computational theory of mind presents us—a model in which the mind simply decodes symbols and outputs more symbols. Searle argues that this is not real understanding or intentionality. This was originally written as a repudiation of the idea that computers work like minds.

Searle has further raised questions about what exactly constitutes a computation:

the wall behind my back is right now implementing the WordStar program, because there is some pattern of molecule movements that is isomorphic with the formal structure of WordStar. But if the wall is implementing WordStar, if it is a big enough wall it is implementing any program, including any program implemented in the brain.[7]

Objections like Searle’s might be called insufficiency objections. They claim that computational theories of mind fail because computation is insufficient to account for some capacity of the mind. Arguments from qualia, such as Frank Jackson’s Knowledge argument, can be understood as objections to computational theories of mind in this way—though they take aim at physicalist conceptions of the mind in general, and not computational theories specifically.[citation needed]

There are also objections which are directly tailored for computational theories of mind.

Putnam himself (see in particular Representation and Reality and the first part of Renewing Philosophy) became a prominent critic of computationalism for a variety of reasons, including ones related to Searle's Chinese room arguments, questions of world-word reference relations, and thoughts about the mind-body relationship. Regarding functionalism in particular, Putnam has claimed along lines similar to, but more general than Searle's arguments, that the question of whether the human mind can implement computational states is not relevant to the question of the nature of mind, because "every ordinary open system realizes every abstract finite automaton."[8] Computationalists have responded by aiming to develop criteria describing what exactly counts as an implementation.[9] [10] [11]

Roger Penrose has proposed the idea that the human mind does not use a knowably sound calculation procedure to understand and discover mathematical intricacies. This would mean that a normal Turing complete computer would not be able to ascertain certain mathematical truths that human minds can.[12]

Prominent scholars

  • Daniel Dennett proposed the Multiple Drafts Model, in which consciousness seems linear but is actually blurry and gappy, distributed over space and time in the brain. Consciousness is the computation, there is no extra step or "Cartesian Theater" in which you become conscious of the computation.
  • Jerry Fodor argues that mental states, such as beliefs and desires, are relations between individuals and mental representations. He maintains that these representations can only be correctly explained in terms of a language of thought (LOT) in the mind. Further, this language of thought itself is codified in the brain, not just a useful explanatory tool. Fodor adheres to a species of functionalism, maintaining that thinking and other mental processes consist primarily of computations operating on the syntax of the representations that make up the language of thought. In later work (Concepts and The Elm and the Expert), Fodor has refined and even questioned some of his original computationalist views, and adopted a highly modified version of LOT (see LOT2).
  • David Marr proposed that cognitive processes have three levels of description: the computational level (which describes that computational problem (i.e., input/output mapping) computed by the cognitive process); the algorithmic level (which presents the algorithm used for computing the problem postulated at the computational level); and the implementational level (which describes the physical implementation of the algorithm postulated at the algorithmic level in biological matter, e.g. the brain). (Marr 1981)
  • Ulric Neisser coined the term 'cognitive psychology' in his book published in 1967 (Cognitive Psychology), wherein Neisser characterizes people as dynamic information-processing systems whose mental operations might be described in computational terms.
  • Steven Pinker described a "language instinct," an evolved, built-in capacity to learn language (if not writing).
  • Hilary Putnam proposed functionalism to describe consciousness, asserting that it is the computation that equates to consciousness, regardless of whether the computation is operating in a brain, in a computer, or in a "brain in a vat."
  • Georges Rey, professor at the University of Maryland, builds on Jerry Fodor's representational theory of mind to produce his own version of a Computational/Representational Theory of Thought.

Alternative theories

See also

Notes

  1. ^ a b Piccinini, Gualtierro & Bahar, Sonya, 2012. "Neural Computation and the Computational Theory of Cognition" in Cognitive Science. https://onlinelibrary.wiley.com/doi/epdf/10.1111/cogs.12012
  2. ^ Putnam, Hilary, 1961. "Brains and Behavior", originally read as part of the program of the American Association for the Advancement of Science, Section L (History and Philosophy of Science), December 27, 1961, reprinted in Block (1983), and also along with other papers on the topic in Putnam, Mathematics, Matter and Method (1979)
  3. ^ a b c d Horst, Steven, (2005) "The Computational Theory of Mind" in The Stanford Encyclopedia of Philosophy
  4. ^ a b Pinker, Steven. The Blank Slate. New York: Penguin. 2002
  5. ^ Hobbes, Thomas "De Corpore"
  6. ^ Searle, J.R. (1980), "Minds, brains, and programs" (PDF), The Behavioral and Brain Sciences, 3 (3): 417–457, doi:10.1017/S0140525X00005756
  7. ^ Searle, J.R. (1992), The Rediscovery of the Mind
  8. ^ Putnam, H. (1988), Representation and Reality
  9. ^ Chalmers, D.J. (1996), "Does a rock implement every finite-state automaton?", Synthese, 108 (3): 309–333, CiteSeerX 10.1.1.33.5266, doi:10.1007/BF00413692, archived from the original on 2004-08-20, retrieved 2009-05-27
  10. ^ Edelman, Shimon (2008), "On the Nature of Minds, or: Truth and Consequences" (PDF), Journal of Experimental and Theoretical AI, 20 (3): 181–196, CiteSeerX 10.1.1.140.2280, doi:10.1080/09528130802319086, retrieved 2009-06-12
  11. ^ Blackmon, James (2012). "Searle's Wall". Erkenntnis. 78: 109–117. doi:10.1007/s10670-012-9405-4.
  12. ^ Roger Penrose, "Mathematical Intelligence," in Jean Khalfa, editor, What is Intelligence?, chapter 5, pages 107-136. Cambridge University Press, Cambridge, United Kingdom, 1994

References

External links