پایگاهداده امنیست
پایگاهداده امنیست (برگرفته Modified National Institute of Standards and Technology database) یک پایگاه داده بزرگ در مؤسسه ملی فناوری و استانداردهای آمریکاست که متشکل از ارقام دستنویس است و معمولاً برای آموزش سیستمهای مختلف پردازش تصویر استفاده میشود.[۱][۲] این پایگاه داده همچنین بهطور گستردهای برای آموزش و آزمایش در زمینه یادگیری ماشین استفاده میشود.[۳][۴] این مجموعه با ادغام کردن دادههای مجموعههای اصلی امانآیاستی ایجاد شدهاست.[۵] از آنجایی که مجموعه دادههای آموزشی امانآیاستی از کارمندان اداره سرشماری آمریکا، و مجموعه داده آزمایشی از دانش آموزان دبیرستانی آمریکایی جمعآوری شده بودند، سازندگان این دیتابیس گمان میکردند که این مجموعه برای آزمایشهای یادگیری ماشین مناسب نیست.[۶] علاوه بر این، تصاویر سیاه و سفید مجموعه امانآیاستی نرمال سازی شدند تا در فضای ۲۸x۲۸ پیکسل قرار بگیرند و همچنین عملیات هموار سازی که باعث پدید آمدن تصاویر طیف خاکستری شد.[۶]
پایگاه دادهامانآیاستی شامل ۶۰ هزار تصویر آموزشی و ۱۰ هزار تصویر آزمایشی است.[۷] نیمی از مجموعه آموزشی و نیمی از مجموعه تست از مجموعه داده آموزشی مؤسسه ملی فناوری و استانداردها گرفته شدهاست، در حالی که نیمی دیگر از مجموعه آموزشی و نیمی دیگر از مجموعه تست، از مجموعه دادههای آزمایشی امانآیاستی گرفته شدهاست.[۸] سازندگان اصلی پایگاه داده، فهرستی از برخی روشهای آزمایش شده بر روی آن را ساختهاند.[۶] در مقاله اصلی خود، آنها توسط روش ماشین بردار پشتیبان، به نرخ خطی ۰٫۸٪ دست یافتهاند.[۹] مجموعه داده گسترش یافتهای شبیه به امانآیاستی به نام ایامانآیاستی نیز در سال ۲۰۱۷ منتشر شد، که شامل ۲۴۰ هزار تصویر آموزشی و ۴۰ هزار تصویر آزمایشی از ارقام و کاراکترهای دستنویس است.
تاریخچه
[ویرایش]مجموعه تصاویر در پایگاه دادهامانآیاستی در سال ۱۹۹۴ توسط ترکیبی از دو پایگاه داده مؤسسه ملی فناوری و استانداردها ایجاد شد: پایگاه داده ویژه ۱ و پایگاه داده ویژه ۳. پایگاه داده ویژه ۱ و پایگاه داده ویژه ۳، به ترتیب شامل ارقامی است که توسط دانش آموزان دبیرستانی و کارمندان اداره سرشماری ایالات متحده نوشته شدهاند.[۱۰]
عملکرد
[ویرایش]برخی از محققان با استفاده از مجموعهای از شبکههای عصبی به «عملکرد نزدیک به انسان» در پایگاه دادهامانآیاستی دست یافتهاند. در همان مقاله، نویسندگان به عملکردی دو برابر انسانها در سایر کارهای تشخیص دست مییابند.[۱۱] بالاترین میزان خطای فهرست شده[۱۲] در وب سایت اصلی پایگاه داده ۱۲ درصد است که با استفاده از یک طبقهبندی خطی ساده و بدون پیش پردازش به دست میآید.[۱۳]
در سال ۲۰۰۴، بهترین نتیجه با نرخ خطای ۰٫۴۲ درصدی روی پایگاه داده با استفاده از طبقهبندیکننده جدیدی به نام LIRA به دست آمد که یک طبقهبندی عصبی با سه لایه نورونی بر اساس اصول پرسپترون روزنبلات است.[۱۴]
برخی از محققان، پایگاه داده را تحت اعوجاجهایی قرار داده و سپس سیستمهای هوش مصنوعی را با استفاده از آن پایگاه داده، آزمایش کردهاند. سیستمهای استفاده شده در این موارد، معمولاً شبکههای عصبی و اعوجاجهای مورد استفاده معمولاً اعوجاج آفین یا اعوجاج کشسانی هستند.[۱۵] گاهی اوقات، این سیستمها میتوانند بسیار موفق باشند. یکی از موارد موفق، سیستمی است که با استفاده از پایگاه داده، به نرخ خطای ۰٫۳۹ درصد دست یافت.[۱۶]
در سال ۲۰۱۱، نرخ خطای ۰٫۲۷ درصد، که نسبت به بهترین نتیجه قبلی بهبود یافته بود، توسط محققان با استفاده از سیستم مشابهی از شبکههای عصبی گزارش شد.[۱۷] در سال ۲۰۱۳ ادعا شد که رویکردی مبتنی بر رگولاسیون شبکههای عصبی با استفاده از DropConnect، موفق به دستیابی به نرخ خطای ۰٫۲۱ درصدی میشود.[۱۸] در سال ۲۰۱۶، بهترین عملکرد شبکه عصبی کانولوشن ۰٫۲۵ درصد بود.[۱۹] از آگوست ۲۰۱۸، بهترین عملکرد یک شبکه عصبی کانولوشنال که با استفاده از دادههای آموزشی MNIST بدون افزایش داده آموزش داده شده باشد، ۰٫۲۵ درصد نرخ خطا است.[۱۹][۲۰] همچنین، مرکز محاسبات موازی (خملنیتسکی، اوکراین) مجموعه ای از تنها ۵ شبکه عصبی کانولوشنال را به دست آورد که با استفاده از پایگاه داده MNIST، به نرخ خطای ۰٫۲۱ درصد دست مییابد.[۲۱][۲۲] برخی از تصاویر در مجموعه داده آزمایش، به سختی قابل خواندن هستند و ممکن است از رسیدن به نرخ خطای تست ۰٪ جلوگیری کنند.[۲۳] در سال ۲۰۱۸، محققان دپارتمان سیستم و مهندسی اطلاعات در دانشگاه ویرجینیا، با استفاده از بهکارگیری سه نوع شبکه عصبی بهطور همزمان (شبکههای عصبی کاملاً متصل، بازگشتی و کانولوشن) نرخ خطای ۰٫۱۸ درصدی را اعلام کردند.[۲۴]
جستارهای وابسته
[ویرایش]منابع
[ویرایش]- ↑ "Support vector machines speed pattern recognition - Vision Systems Design". Vision Systems Design. Retrieved 17 August 2013.
- ↑ Gangaputra, Sachin. "Handwritten digit database". Retrieved 17 August 2013.
- ↑ Qiao, Yu (2007). "THE MNIST DATABASE of handwritten digits". Retrieved 18 August 2013.
- ↑ Platt, John C. (1999). "Using analytic QP and sparseness to speed training of support vector machines" (PDF). Advances in Neural Information Processing Systems: 557–563. Archived from the original (PDF) on 4 March 2016. Retrieved 18 August 2013.
- ↑ Grother, Patrick J. "NIST Special Database 19 - Handprinted Forms and Characters Database" (PDF). National Institute of Standards and Technology.
- ↑ ۶٫۰ ۶٫۱ ۶٫۲ LeCun, Yann; Cortez, Corinna; Burges, Christopher C.J. "The MNIST Handwritten Digit Database". Yann LeCun's Website yann.lecun.com. Retrieved 30 April 2020. خطای یادکرد: برچسب
<ref>
نامعتبر؛ نام «LeCun» چندین بار با محتوای متفاوت تعریف شده است. (صفحهٔ راهنما را مطالعه کنید.). - ↑ Kussul, Ernst; Baidyk, Tatiana (2004). "Improved method of handwritten digit recognition tested on MNIST database". Image and Vision Computing. 22 (12): 971–981. doi:10.1016/j.imavis.2004.03.008.
- ↑ Zhang, Bin; Srihari, Sargur N. (2004). "Fast k-Nearest Neighbor Classification Using Cluster-Based Trees" (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 26 (4): 525–528. doi:10.1109/TPAMI.2004.1265868. PMID 15382657. Archived from the original (PDF) on 25 July 2021. Retrieved 20 April 2020.
- ↑ LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner (1998). "Gradient-Based Learning Applied to Document Recognition" (PDF). Proceedings of the IEEE. 86 (11): 2278–2324. doi:10.1109/5.726791. Retrieved 18 August 2013.
- ↑ LeCun, Yann; Cortez, Corinna; Burges, Christopher C.J. "The MNIST Handwritten Digit Database". Yann LeCun's Website yann.lecun.com. Retrieved 30 April 2020.
- ↑
{{cite book}}
: Empty citation (help) - ↑ LeCun, Yann; Cortez, Corinna; Burges, Christopher C.J. "The MNIST Handwritten Digit Database". Yann LeCun's Website yann.lecun.com. Retrieved 30 April 2020.
- ↑ LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner (1998). "Gradient-Based Learning Applied to Document Recognition" (PDF). Proceedings of the IEEE. 86 (11): 2278–2324. doi:10.1109/5.726791. Retrieved 18 August 2013.
- ↑ Kussul, Ernst; Tatiana Baidyk (2004). "Improved method of handwritten digit recognition tested on MNIST database" (PDF). Image and Vision Computing. 22 (12): 971–981. doi:10.1016/j.imavis.2004.03.008. Archived from the original (PDF) on 21 September 2013. Retrieved 20 September 2013.
- ↑ LeCun, Yann; Cortez, Corinna; Burges, Christopher C.J. "The MNIST Handwritten Digit Database". Yann LeCun's Website yann.lecun.com. Retrieved 30 April 2020.
- ↑ Ranzato, Marc’Aurelio; Christopher Poultney; Sumit Chopra; Yann LeCun (2006). "Efficient Learning of Sparse Representations with an Energy-Based Model" (PDF). Advances in Neural Information Processing Systems. 19: 1137–1144. Retrieved 20 September 2013.
- ↑
{{cite book}}
: Empty citation (help) - ↑
{{cite conference}}
: Empty citation (help) - ↑ ۱۹٫۰ ۱۹٫۱ SimpleNet (2016). "Lets Keep it simple, Using simple architectures to outperform deeper and more complex architectures". arXiv:1608.06037. Retrieved 3 December 2020.
- ↑ SimpNet. "Towards Principled Design of Deep Convolutional Networks: Introducing SimpNet". Github. arXiv:1802.06205. Retrieved 3 December 2020.
- ↑ Romanuke, Vadim. "Parallel Computing Center (Khmelnytskyi, Ukraine) represents an ensemble of 5 convolutional neural networks which performs on MNIST at 0.21 percent error rate". Retrieved 24 November 2016.
- ↑ Romanuke, Vadim (2016). "Training data expansion and boosting of convolutional neural networks for reducing the MNIST dataset error rate". Research Bulletin of NTUU "Kyiv Polytechnic Institute". 6 (6): 29–34. doi:10.20535/1810-0546.2016.6.84115.
- ↑ MNIST classifier, GitHub. "Classify MNIST digits using Convolutional Neural Networks". Retrieved 3 August 2018.
- ↑ Kowsari, Kamran; Heidarysafa, Mojtaba; Brown, Donald E.; Meimandi, Kiana Jafari; Barnes, Laura E. (2018-05-03). "RMDL: Random Multimodel Deep Learning for Classification". Proceedings of the 2018 International Conference on Information System and Data Mining. arXiv:1805.01890. doi:10.1145/3206098.3206111.