نظریه اطلاعات: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
بدون خلاصۀ ویرایش
خط ۳: خط ۳:


== تاریخچه ==
== تاریخچه ==
خلق تلگراف و تلفن توجه و علاقه نسبت به مفهوم اطلاعات و انتقال آن را افزایش داد. در سال ۱۸۴۴ میلادی، [[ساموئل مورس]]<ref group="پانویس">Samuel F.B. Morse</ref> خط تلگرافی بین شهرهای [[واشینگتن]] و [[بالتیمور]] در آمریکا ساخت. مورس هنگام ارسال اطلاعات به مشکلات عملی الکتریکی برخورد. او متوجه شد که خطوطی که از زیر زمین کشیده شده‌اند مشکلات بیشتری از خطوطی که هوایی از طریق تیر منتقل می‌شوند دارند و این خود زمینه‌ای برای تحقیقات بعدی شد. با اختراع تلفن توسط [[الکساندر گراهام بل]]<ref group="پانویس">Alexander Graham Bell</ref> در سال ۱۸۷۵ میلادی و گسترش شدید آن، برخی از دانشوران به بررسی مشکلات انتقال اطلاعات پرداختند. اکثر این تحقیقات از [[تبدیل فوریه]] استفاده جسته ولی تمرکز آنها بیشتر به جنبه عملی و مهندسی موضوع بود.<ref name="Britanica" />
خلق تلگراف و تلفن توجه و علاقه،نسبت به مفهوم اطلاعات و انتقال آن را افزایش داد. در سال ۱۸۴۴ میلادی، [[ساموئل مورس]]<ref group="پانویس">Samuel F.B. Morse</ref> خط تلگرافی بین شهرهای [[واشینگتن]] و [[بالتیمور]] در آمریکا ساخت. مورس هنگام ارسال اطلاعات به مشکلات عملی الکتریکی برخورد. او متوجه شد که خطوطی که از زیر زمین کشیده شده‌اند مشکلات بیشتری از خطوطی که هوایی از طریق تیر منتقل می‌شوند دارند و این خود زمینه‌ای برای تحقیقات بعدی شد. با اختراع تلفن توسط [[الکساندر گراهام بل]]<ref group="پانویس">Alexander Graham Bell</ref> در سال ۱۸۷۵ میلادی و گسترش شدید آن، برخی از دانشوران به بررسی مشکلات انتقال اطلاعات پرداختند. اکثر این تحقیقات از [[تبدیل فوریه]] استفاده جسته ولی تمرکز آنها بیشتر به جنبه عملی و مهندسی موضوع بود.<ref name="Britanica" />


شروع تحقیق در مورد نظریه اطلاعات اولین بار در سال ۱۹۲۴ توسط [[هری نایکوئیست]]<ref group="پانویس">Harry Nyquist</ref> در مقاله‌ای به نام «عوامل خاصی که سرعت تلگراف را تحت تأثیر قرار می‌دهند»<ref group="پانویس">Certain Factors Affecting Telegraph Speed</ref> انجام شد. نایکویست وجود نرخ ماکزیمم ارسال اطلاعات را متوجه شده و فرمولی جهت محاسبه این نرخ ماکزیمم ارائه کرد. کار مهم دیگر در این زمان مقاله «انتقال اطلاعات» در سال ۱۹۲۸ میلادی توسط هارتلی<ref group="پانویس">R.V.L. Hartley</ref> بود که اولین پایه‌های ریاضی نظریه اطلاعات را بنا گذاشت.<ref name="Britanica" />
شروع تحقیق در مورد نظریه اطلاعات اولین بار در سال ۱۹۲۴ توسط [[هری نایکوئیست]]<ref group="پانویس">Harry Nyquist</ref> در مقاله‌ای به نام «عوامل خاصی که سرعت تلگراف را تحت تأثیر قرار می‌دهند»<ref group="پانویس">Certain Factors Affecting Telegraph Speed</ref> انجام شد. نایکویست وجود نرخ ماکزیمم ارسال اطلاعات را متوجه شده و فرمولی جهت محاسبه این نرخ ماکزیمم ارائه کرد. کار مهم دیگر در این زمان مقاله «انتقال اطلاعات» در سال ۱۹۲۸ میلادی توسط هارتلی<ref group="پانویس">R.V.L. Hartley</ref> بود که اولین پایه‌های ریاضی نظریه اطلاعات را بنا گذاشت.<ref name="Britanica" />

نسخهٔ ‏۱۶ آوریل ۲۰۱۷، ساعت ۱۳:۴۵

نظریه اطلاعات

مفاهیم

آنتروپی اطلاعات
اطلاعات مشترک
نرخ مخابره
ظرفیت کانال

چهره‌های مهم

کلود شانون
هری نایکویست
رالف هارتلی
توماس کاور
رابرت فانو
ریچارد همینگ
رابرت گالاگر
رادلف السوده
آرون واینر

جوایز مهم

جایزه کلود شانون


نظریّهٔ اطّلاعات مدلی ریاضی از شرایط و عوامل مؤثر در انتقال و پردازش داده‌ها و اطّلاعات فراهم می‌آورد. نظریهٔ اطلاعات با ارائهٔ روشی جهت «کمّی سازی و اندازه‌گیری عددی اطلاعات» به موضوعاتی مانند ارسال، دریافت، و ذخیره‌سازی بهینهٔ داده‌ها و اطلاعات می‌پردازد. تمرکز اصلی این نظریّه بر روی محدودیت‌های بنیادین که در ارسال و تحلیل داده‌ها وجود دارد می‌باشد، و کمتر به نحوهٔ عملکرد دستگاه‌های خاص می‌پردازد. پیدایش این نظریه عموماً به مهندس برقی به نام کلاود شانون[پانویس ۱] در سال ۱۹۴۸ میلادی نسبت داده می‌شود. نظریه اطلاعات مورد استفاده خاص مهندسین مخابرات بوده، هرچند برخی از مفاهیم آن در رشته‌های دیگری مانند روان‌شناسی، زبان‌شناسی، کتابداری و اطلاع‌رسانی، و اطلاعات و دانش شناسی نیز مورد استفاده قرار گرفته‌است.[۱] مفهوم اطلاعاتی که توسط شانون مطالعه شد اطلاعات از دید آمار و احتمالات بوده و با مفاهیم روزمره از اطلاعات مانند «دانش» و یا استفاده‌های روزمره از آن در زبان طبیعی مانند «بازیابی اطلاعات»، «تحلیل اطلاعات»، «چهارراه اطلاعات» و غیره تفاوت دارد. اگر چه نظریه اطلاعات رشته‌های دیگر مانند روان‌شناسی و فلسفه را تحت تأثیر قرار داده، ولی بدلیل مشکلات تبدیل «مفهوم آماری اطلاعات» به «مفهوم معنایی دانش و محتوا» تأثیراتش بیشتر از نوع القای احساساتی نسبت به مفهوم اطلاعات بوده‌است.[۲]

تاریخچه

خلق تلگراف و تلفن توجه و علاقه،نسبت به مفهوم اطلاعات و انتقال آن را افزایش داد. در سال ۱۸۴۴ میلادی، ساموئل مورس[پانویس ۲] خط تلگرافی بین شهرهای واشینگتن و بالتیمور در آمریکا ساخت. مورس هنگام ارسال اطلاعات به مشکلات عملی الکتریکی برخورد. او متوجه شد که خطوطی که از زیر زمین کشیده شده‌اند مشکلات بیشتری از خطوطی که هوایی از طریق تیر منتقل می‌شوند دارند و این خود زمینه‌ای برای تحقیقات بعدی شد. با اختراع تلفن توسط الکساندر گراهام بل[پانویس ۳] در سال ۱۸۷۵ میلادی و گسترش شدید آن، برخی از دانشوران به بررسی مشکلات انتقال اطلاعات پرداختند. اکثر این تحقیقات از تبدیل فوریه استفاده جسته ولی تمرکز آنها بیشتر به جنبه عملی و مهندسی موضوع بود.[۱]

شروع تحقیق در مورد نظریه اطلاعات اولین بار در سال ۱۹۲۴ توسط هری نایکوئیست[پانویس ۴] در مقاله‌ای به نام «عوامل خاصی که سرعت تلگراف را تحت تأثیر قرار می‌دهند»[پانویس ۵] انجام شد. نایکویست وجود نرخ ماکزیمم ارسال اطلاعات را متوجه شده و فرمولی جهت محاسبه این نرخ ماکزیمم ارائه کرد. کار مهم دیگر در این زمان مقاله «انتقال اطلاعات» در سال ۱۹۲۸ میلادی توسط هارتلی[پانویس ۶] بود که اولین پایه‌های ریاضی نظریه اطلاعات را بنا گذاشت.[۱]

پرونده:Claude Elwood Shannon (1916-2001).jpg
کلود شانون

تولد واقعی نظریه اطلاعات را به مقاله «نظریه ریاضی مخابرات»[پانویس ۷] توسط کلاود شانون نسبت داد. یکی از نکات اصلی مقاله شانون توجه به این نکته بود که بررسی سیگنال‌های مخابراتی را باید از بررسی معانی ای که آن سیگنال‌ها حمل می‌کنند جدا کرد، در حالی که پیش از او اطلاعات موجود در یک سیگنال الکتریکی از پیغامی که آن سیگنال منتقل می‌کند جدا در نظر گرفته نمی‌شد. شانون همچنین به این نکته توجه کرد که طول یک سیگنال همیشه متناسب با میزان اطلاعات آن نیست. مثلاً نقل شده‌است که در نامه‌ای که ویکتور هوگو به ناشرش نوشت، فقط نماد «؟» را نوشته بود. در پاسخ نامه‌ای دریافت کرد که فقط حاوی نماد «!» بود. این دو نماد برای هر دو طرف حاوی اطلاعات زیادی می‌باشد، هرچند از دید ناظری که معانی آنها را نداند، بی‌معنی هستند. مثال دیگر این جمله‌ای طولانی است که به زبان فارسی نوشته شده باشد، ولی برای یک انگلیسی زبانی که فارسی نمی‌داند مفهومی ندارد. بدین سان شانون پیشنهاد نمود که مسئله ارسال سیگنال‌ها را از ارسال معانی موجود در آنها جدا کرده، و برای موضوع اول نظریه ریاضی ای تولید نمود.[۱]

شانون در آن زمان در آزمایشگاه بل*[۳] مشغول به کار بود و سعی در تعبیه خطوط تلفن با ضریب اعتماد بالا داشت. پیش از شانون عوامل مؤثر در استفاده بهینه از خطوط تلفن شناخته نشده بود و تعداد حداکثر مکالمات تلفنی که می‌توان روی خطوط تلفن موجود انجام داد نامشخص بود. شانون پس از ارائه تعریفی ریاضی از کانال مخابراتی، ظرفیتی به کانال مخابراتی نسبت داد که بیانگر میزان حداکثر اطلاعاتی است که روی کانال می‌توان مخابره کرد. فرمول ظرفیت کانال شانون نه تنها به کانال‌های بدون اغتشاش (بدون نویز)، بلکه حتی به کانال‌های با اغتشاش واقعی نیز قابل اعمال بود. شانون فرمولی ارائه کرد که نحوه تأثیر پهنای باند کانال، و نسبت توان سیگنال ارسالی به اغتشاش (نسبت سیگنال به نویز) بر ظرفیت کانال را را آشکار می‌کرد.[۱]

مفهوم اطلاعات و راه‌های اندازه‌گیری آن

مفهوم اطلاعاتی که توسط شانون مطالعه شد اطلاعات از دید آمار و احتمالات بوده و با مفاهیم روزمره از اطلاعات مانند «دانش» و یا استفاده‌های روزمره از آن در زبان طبیعی مانند «بازیابی اطلاعات»، «تحلیل اطلاعات»، «چهارراه اطلاعات» و غیره تفاوت می‌دارد. اگر چه نظریه اطلاعات رشته‌های دیگر مانند روان‌شناسی و فلسفه را تحت تأثیر قرار داده، ولی به دلیل مشکلات تبدیل «مفهوم آماری اطلاعات» به «مفهوم معنایی دانش و محتوا» تأثیراتش بیشتر از نوع القای احساساتی نسبت به مفهوم اطلاعات بوده‌است.[۲]

آمار و احتمالات نقشی حیاتی و عمده در ظهور و رشد نظریه اطلاعات برعهده دارد.

  • آنتروپی اطلاعات

قضایای شانون

در این نظریه، کلاود شانون نحوهٔ مدل‌سازی مسئله ارسال اطلاعات در یک کانال مخابراتی را به صورت پایه‌ای بررسی نموده، و مدل کاملی برای مدل‌سازی ریاضی منبع اطلاعات، کانال ارسال اطلاعات و بازیابی آن ارائه نموده‌است. او مسئلهٔ ارسال اطلاعات از یک منبع به یک مقصد را به کمک علم احتمالات بررسی و تحلیل نمود. دو نتیجهٔ بسیار مهم، معروف به قضیه‌های شانون، عبارت‌اند از:

۱- حداقل میزان نرخی که می‌توان نرخ فشرده کردن اطلاعات یک منبع تصادفی اطلاعات را به آن محدود نمود برابر با آنتروپی آن منبع است؛ به عبارت دیگر نمی‌توان دنباله خروجی از یک منبع اطلاعات را با کمتر از آنتروپی آن منبع ارسال نمود.

۲- حداکثر میزان نرخی که می‌توان بر روی یک کانال مخابراتی اطلاعات ارسال نمود به نحوی که قادر به آشکارسازی اطلاعات در مقصد، با احتمال خطای در حد قابل قبول کم، باشیم، مقداری ثابت و وابسته به مشخصات کانال است، که به آن ظرفیت کانال می‌گوئیم. ارسال با نرخی بیشتر از ظرفیت یک کانال روی آن منجر به خطا می‌شود.

این زمینه از علم مخابرات، به زیربخش‌های کدگذاری منبع و کدگذاری کانال تقسیم می‌گردد. مباحث رمزنگاری مطرح شده توسط شانون نیز از این بنیان ریاضی بهره جسته‌است. از زیر شاخه‌های مرتبط با آن می‌توان نظریه کدینگ جبری کانال را نام برد.

کمیت‌های مربوط به اطلاعات

نظریه اطلاعات بر مبنای نظریهٔ احتمالات و علم استاتیک (ایستایی شناسی) به وجود آمده است. مهم‌ترین کمیت‌های مربوط به اطلاعات عبارتند از: آنتروپی(که اطلاعات داخل یک متغیر تصادفی است) و اطلاعات متقابل(که مقدار اطلاعات مشترک بین دو متغیر تصادفی است). کمیت اول(آنتروپی)، به ما نشان می‌دهد که یک داده‌ای از نوع پیام تا چه حد می‌تواند فشرده سازی شود؛ در حالی که کمیت دوم (اطلاعات متقابل)، می‌تواند برای یافتن سرعت ارتباط در یک کانال مورد استفاده قرار گیرد.

انتخاب مبنای لگاریتم در فرمول زیر، نوع واحد آنتروپی اطلاعات را مشخص می‌کند. رایج‌ترین واحد اطلاعات، بیت است که بر مبنای لگاریتم دودویی (باینری) است. دیگر واحدها شامل نت(بر اساس لگاریتم طبیعی) و هارتلی (بر اساس لگاریتم معمولی) هستند. پیرو مطالب قبل، در یک عبارت به شکل ، زمانی که است، طبق قرارداد، عبارت هم برابر صفر در نظر گرفته می‌شود. این مطلب به راحتی اثبات می‌شود؛ چون مقدار حدی p log p هنگامی که مقدار p همسایگی راست صفر میل می‌کند، برابر با صفر است.

آنتروپی

آنتروپی آزمایش برنولی به صورت تابعی از احتمال موفقیت، اغلب به نام تابع باینری آنتروپی نامیده می‌شود.. مقدار آنتروپی در ۱ بیشینه است در هر آزمایشی که دو نتیجهٔ ممکن به طور مساوی محتملند؛ همانند شیر یا خط آوردن یک سکه به طور بی طرفانه

آنتروپی یک متغیر تصادفی، از اندازه‌گیری مقدار احتمالات مربوط به مقدار به دست می‌آید.

جستارهای وابسته

معادل‌های انگلیسی

  1. Claude Elwood Shannon
  2. Samuel F.B. Morse
  3. Alexander Graham Bell
  4. Harry Nyquist
  5. Certain Factors Affecting Telegraph Speed
  6. R.V.L. Hartley
  7. The Methematical Theory of Communication

پانویس

  1. ۱٫۰ ۱٫۱ ۱٫۲ ۱٫۳ ۱٫۴ «information theory," Encyclopædia Britannica
  2. ۲٫۰ ۲٫۱ SAYRE, KENNETH M. (1998). Information theory. In E. Craig (Ed.), Routledge Encyclopedia of Philosophy. London: Routledge.
  3. Bell Laboratories

منابع

Earl Morrogh, Information Architecture, An Emerging 21st Century Profession, Pearson Education, Inc. , 2003. ISBN 0-13-096746-7

پیوند به بیرون