تشخیص عواطف (احساسات)

از ویکی‌پدیا، دانشنامهٔ آزاد

شناخت عواطف فرایند شناسایی عواطف انسانی است. دقت افراد در تشخیص احساسات دیگران، معمولاً بسیار متفاوت است. استفاده از فناوری برای کمک به افراد در حوزهٔ تشخیص احساسات، یک حوزه تحقیقاتی نسبتاً نوپا است. به‌طور کلی، این فناوری در صورتی که از روش‌های چندوجهی در پردازش داده‌ها استفاده کند، بسیار کارآمد خواهد بود. تا به امروز، بیشترین کار روی تشخیص خودکار حالات چهره از دادهٔ تصویری، عبارات گفتاری از داده‌های صوتی، عبارات نوشتاری از داده‌های متنی، و فیزیولوژی که توسط ابزارهای پوشیدنی اندازه‌گیری می‌شود، انجام شده‌است.

تشخیص عواطف از طریق انسان[ویرایش]

انسان‌ها انعطاف زیادی در توانایی‌های خود برای تشخیص عواطف نشان می‌دهند. نکته کلیدی که هنگام یادگیری در مورد تشخیص خودکار عواطف باید به خاطر داشت این است که چندین منبع "حقیقت پایه" یا حقیقت در مورد اینکه عواطف واقعی چیست، وجود دارد. فرض کنید سعی داریم که احساسات فردی به نام الکس را شناسایی کنیم. یک منبع این است که "بیشتر مردم چه می‌گویند در مورد این که الکس چه احساسی دارد؟" در این مورد، "حقیقت" ممکن است با آنچه الکس احساس می‌کند منطبق نباشد، اما ممکن است با آن عواطفی که اکثر مردم می‌گویند که به نظر می‌رسد الکس آن‌ها را احساس می‌کند، مطابقت داشته باشد. به عنوان مثال، الکس ممکن است واقعاً احساس غمگینی کند، اما در ظاهر لبخند بزرگی می‌زند، درنتیجه اکثر مردم می‌گویند که او خوشحال به نظر می‌رسد. اگر یک روش خودکار به نتایجی یکسان با گروهی از ناظران دست یابد، ممکن است آن روش، روش دقیقی به حساب بیاید، حتی اگر واقعاً آنچه را که الکس واقعاً احساس می‌کند اندازه‌گیری نکند. منبع دیگر برای «حقیقت» این است که از خود الکس بپرسید که واقعاً چه احساسی دارد. این منبع هنگامی کارا است که الکس درک خوبی از وضعیت درونی خود داشته باشد و بخواهد که به شما بگوید که آن وضعیت درونی‌اش چیست، و همچنین توانایی بیان دقیق آن وضعیت درونی را با کلمات یا یک عدد داشته باشد. با این حال، برخی از افراد دارای نارسایی هیجانی هستند (افراد دارای نارسایی هیجانی، افرادی هستند که از بیان احساسات و عواطف خود عاجزند) و درک خوبی از احساسات درونی خود ندارند، یا با استفاده کلمات و اعداد، قادر به برقراری یک ارتباط دقیق با این احساسات درونی نیستند. به‌طور کلی، دستیابی به این حقیقت که واقعاً عواطف چه چیزی را بیان می‌کنند، نیاز به تحقیقات بیشتری دارد، و بسته به انتخاب شاخص‌ها، چگونگی این تحقیقات می‌تواند متفاوت باشد و معمولاً مستلزم درنظر گرفتن مقداری از عدم قطعیت است.

تشخیص عواطف خودکار[ویرایش]

دهه‌هاست که تحقیقات علمی برای توسعه و ارزیابی روش‌هایی برای تشخیص خودکار عواطف انجام شده‌است. در حال حاضر ادبیات گسترده‌ای وجود دارد که صدها نوع روش مختلف را پیشنهاد و ارزیابی می‌کند، تکنیک‌هایی را از حوزه‌های مختلف، مانند پردازش سیگنال، یادگیری ماشین، بینایی رایانه و پردازش گفتار به کار می‌گیرد. ممکن است روش‌ها و تکنیک‌های مختلفی برای تفسیر عواطف استفاده شود، مانند شبکه‌های بیزی استفاده شود.[۱] مدل‌های مخلوط گاوسی[۲] و مدل‌های مارکوف پنهان[۳] و شبکه‌های عصبی عمیق.[۴]

رویکردها[ویرایش]

دقت تشخیص احساسات معمولاً زمانی بهبود می‌یابد که تجزیه و تحلیل عبارات انسانی را از اشکال چندوجهی مانند متون، فیزیولوژی، صدا یا ویدیو ترکیب کند.[۵]

انواع مختلف احساسات از طریق ادغام اطلاعات از حالات چهره، حرکات بدن و ژست‌ها و گفتار شناسایی می‌شوند.[۶] گفته می‌شود که این فناوری در پیدایش اینترنت به اصطلاح عاطفی یا احساسی کمک می‌کند.[۷]

رویکردهای موجود در تشخیص احساسات برای طبقه‌بندی کردن انواع خاص عواطف را می‌توان به‌طور کلی به سه دسته اصلی طبقه‌بندی کرد: تکنیک‌های مبتنی بر دانش، روش‌های آماری و رویکردهای ترکیبی.[۸]

تکنیک‌های مبتنی بر دانش[ویرایش]

تکنیک‌های مبتنی بر دانش (که گاهی به عنوان تکنیک‌های مبتنی بر واژگان شناخته می‌شوند)، از دانش حوزه و ویژگی‌های معنایی و نحوی زبان برای تشخیص انواع خاص احساسات استفاده می‌کنند.[نیازمند منبع] در این رویکرد، استفاده از منابع مبتنی بر دانش در طول فرایند طبقه‌بندی احساسات، مانند WordNet , SenticNet,[۹] ConceptNet و EmotiNet,[۱۰] رایج است.[۱۱] یکی از مزایای این رویکرد، دسترسی و صرفه اقتصادی‌ای است که به سبب دسترسی زیاد به چنین منابع مبتنی بر دانش، به ارمغان آمده‌است.[۸] از سوی دیگر، یک محدودیت این تکنیک، ناتوانی آن در رسیدگی به مفاهیم ظریف و قوانین پیچیده زبانی است.[۸]

تکنیک‌های دانش محور را می‌توان عمدتاً در دو دسته، طبقه‌بندی کرد: رویکردهای مبتنی بر فرهنگ لغت و رویکردهای مبتنی بر پیکره.[نیازمند منبع] رویکردهای مبتنی بر فرهنگ لغت، کلمات بذر نظرات یا احساسات را در فرهنگ لغت پیدا می‌کنند و مترادف و متضاد آنها را جستجو می‌کنند تا فهرست اولیه نظرات یا احساسات را گسترش دهند.[۱۲] از سوی دیگر، رویکردهای مبتنی بر پیکره، با یک لیست اولیه از نظرات یا کلمات احساسات شروع می‌شوند و با یافتن کلمات دیگری با ویژگی‌های زمینه خاص در یک مجموعه بزرگ، دادگان را گسترش می‌دهند.[۱۲] در حالی که رویکردهای مبتنی بر پیکره، زمینه را در نظر می‌گیرند، عملکرد آنها همچنان در حوزه‌های مختلف متفاوت است زیرا یک کلمه در یک حوزه می‌تواند جهت‌گیری متفاوتی در حوزه‌ای دیگر داشته باشد.[۱۳]

روش‌های آماری[ویرایش]

روش‌های آماری معمولاً شامل استفاده از الگوریتم‌های مختلف یادگیری ماشین تحت نظارت است که در آن مجموعه بزرگی از داده‌های مشروح به الگوریتم‌ها وارد می‌شود تا سیستم یاد بگیرد و انواع احساسات مناسب را پیش‌بینی کند.[۸] الگوریتم‌های یادگیری ماشین عموماً دقت طبقه‌بندی معقول‌تری را در مقایسه با سایر رویکردها ارائه می‌کنند، اما یکی از چالش‌های دستیابی به نتایج خوب در فرایند طبقه‌بندی، نیاز به مجموعه آموزشی به اندازه کافی بزرگ است.[۸]

برخی از متداول‌ترین الگوریتم‌های یادگیری ماشین شامل ماشین‌های بردار پشتیبان (SVM)، بیز ساده و Maximum Entropy هستند.[۱۴] یادگیری عمیق، که زیرمجموعه‌ای از خانواده یادگیری ماشین بدون نظارت است، نیز به‌طور گسترده در تشخیص احساسات به کار می‌رود.[۱۵][۱۶][۱۷] الگوریتم‌های معروف یادگیری عمیق شامل معماری‌های مختلف شبکه عصبی مصنوعی (ANN) مانند شبکه عصبی کانولوشنی (CNN)، حافظه طولانی کوتاه‌مدت (LSTM) و ماشین یادگیری افراطی (ELM) می‌باشد.[۱۴] محبوبیت رویکردهای یادگیری عمیق در حوزه تشخیص احساسات عمدتاً به دلیل موفقیت آن در کاربردهای مرتبط با بینایی رایانه، تشخیص گفتار و پردازش زبان طبیعی (NLP) است.[۱۴]

رویکردهای ترکیبی[ویرایش]

رویکردهای ترکیبی در تشخیص عواطف، اساساً ترکیبی از تکنیک‌های مبتنی بر دانش و روش‌های آماری هستند که از ویژگی‌های مکمل هر دو تکنیک استفاده می‌کنند.[۸] برخی از آثاری که مجموعه‌ای از عناصر زبانی دانش محور و روش‌های آماری را به کار گرفته‌اند، شامل محاسبات حسی و iFeel هستند، که هر دو از منابع مبتنی بر دانش SenticNet در سطح مفهومی استفاده کرده‌اند. نقش چنین منابع دانش بنیان در اجرای رویکردهای ترکیبی در فرایند طبقه‌بندی احساسات بسیار مهم است.[۱۱] از آنجایی که تکنیک‌های ترکیبی از مزایای ارائه شده توسط هر دو رویکرد مبتنی بر دانش و آماری به دست می‌آیند، در مقایسه با استفاده از روش‌های مبتنی بر دانش یا آماری به‌طور مستقل، عملکرد طبقه‌بندی بهتری دارند.[نیازمند منبع] اما یک نقطه ضعف استفاده از تکنیک‌های ترکیبی، پیچیدگی محاسباتی در طول فرایند طبقه‌بندی است.[۱۱]

دادگان‌ها[ویرایش]

داده بخشی جدایی ناپذیر از رویکردهای موجود در تشخیص احساسات هستند و یک چالش در اکثر موارد، به دست آوردن داده‌های حاشیه نویسی است که برای آموزش الگوریتم‌های یادگیری ماشین ضروری هستند. برای فرایند طبقه‌بندی انواع احساسات مختلف از منابع چندوجهی در قالب متون، صدا، ویدئو یا سیگنال‌های فیزیولوژیکی، دادگان‌های زیر موجود است:

  1. دادگان HUMAINE: کلیپ‌های طبیعی را با کلمات احساسی و برچسب‌های نوشتاری در چند وجه مختلف ارائه می‌کند
  2. پایگاه داده بلفاست: کلیپ‌هایی را در طیف گسترده‌ای از احساسات از برنامه‌های تلویزیونی و ضبط مصاحبه ارائه می‌دهد[۱۸]
  3. دادگان SEMAINE: ضبط سمعی و بصری را بین یک شخص و یک عامل مجازی فراهم می‌کند و حاوی حاشیه نویسی احساساتی مانند عصبانیت، خوشحالی، ترس، انزجار، غم، تحقیر و سرگرمی است[۱۹]
  4. دادگان SEMAINE: ضبط جلسات دوتایی بین بازیگران را فراهم می‌کند و حاوی حاشیه نویسی احساساتی مانند شادی، خشم، غم، ناامیدی و حالت خنثی است[۲۰]
  5. دادگان eNTERFACE: ضبط‌های سمعی و بصری از سوژه‌هایی از هفت ملیت را فراهم می‌کند و حاوی حاشیه‌نویسی‌های احساساتی مانند شادی، خشم، غم، تعجب، انزجار و ترس است
  6. دادگان DEAP: الکتروانسفالوگرافی (EEGالکتروکاردیوگرافی (ECG) و ضبط ویدیوی صورت، و همچنین حاشیه نویسی احساسات از نظر ظرفیت، برانگیختگی و تسلط افراد در حال تماشای کلیپ‌های فیلم را ارائه می‌دهد[۲۱]
  7. دادگان DREAMER: ضبط‌های نوار مغزی (EEG ) و الکتروکاردیوگرافی (ECG) و همچنین حاشیه نویسی احساسات را از نظر ظرفیت، برانگیختگی و تسلط افراد در حال تماشای کلیپ‌های فیلم ارائه می‌دهد[۲۲]
  8. دادگان MELD: یک مجموعه داده مکالمه چند جانبه است که در آن هر گفته با عواطف و احساسات برچسب گذاری می‌شود. MELD[۲۳] مکالمات را در قالب ویدئویی فراهم می‌کند و از این رو برای تشخیص احساسات چندوجهی و تجزیه و تحلیل احساسات مناسب است. MELD برای تجزیه و تحلیل احساسات چندوجهی و تشخیص احساسات، سیستم‌های گفتگو و تشخیص احساسات در مکالمات مفید است.[۲۴]
  9. دادگان MuSe: ضبط سمعی و بصری از تعاملات طبیعی بین یک فرد و یک شی را فراهم می‌کند.[۲۵] دارای حاشیه‌نویسی‌های هیجانی گسسته و پیوسته از نظر ظرفیت، برانگیختگی و قابل اعتماد بودن و همچنین موضوعات گفتاری مفید برای تجزیه و تحلیل احساسات چندوجهی و تشخیص احساسات است.
  10. دادگان UIT-VSMEC: یک مجموعه احساسی رسانه اجتماعی استاندارد ویتنامی (UIT-VSMEC) با حدود ۶۹۲۷ جمله مشروح شده توسط انسان با شش برچسب احساس است که به تحقیقات تشخیص احساسات در ویتنامی کمک می‌کند که یک زبان کم منابع در پردازش زبان طبیعی (NLP) است. .[۲۶]
  11. دادگان BED: ضبط‌های الکتروانسفالوگرافی (EEG) و همچنین حاشیه نویسی احساسات از نظر ظرفیت و برانگیختگی افراد در حال تماشای تصاویر را فراهم می‌کند. همچنین شامل ضبط الکتروانسفالوگرافی (EEG) از افرادی است که در معرض محرک‌های مختلف (SSVEP، استراحت با چشمان بسته، استراحت با چشمان باز، وظایف شناختی) برای انجام وظایف بیومتریک مبتنی بر EEG هستند.[۲۷]

کاربردها[ویرایش]

تشخیص احساسات به دلایل مختلفی در جامعه مورد استفاده قرار می‌گیرد. Affectiva که توسط MIT توسعه داده شده‌است، یک نرم‌افزار هوش مصنوعی را ارائه می‌کند که انجام کارهایی که قبلاً به صورت دستی توسط افراد انجام می‌شد را کارآمدتر می‌کند. این نرم‌افزار عمدتاً برای جمع‌آوری اطلاعات حالت چهره و حالت صوتی مربوط به زمینه‌های خاصی است که بینندگان رضایت داده‌اند این اطلاعات را به اشتراک بگذارند. به عنوان مثال، به جای پر کردن یک نظرسنجی طولانی دربارهٔ احساس شما در هر مرحله از تماشای یک فیلم آموزشی یا یک تبلیغات، می‌توانید موافقت کنید که یک دوربین چهره شما را تماشا کند و به آنچه می‌گویید گوش فرا دهد، و توجه کند که در چه بخش‌هایی از تجربه، شما حالاتی مانند خستگی، علاقه‌مندی، سردرگمی یا لبخند زدن را نشان می‌دهید. (توجه داشته باشید که این به معنای خواندن احساسات درونی شما نیست - بلکه فقط آنچه را که شما به صورت ظاهری بیان می‌کنید می‌خواند) از دیگر کاربردهای نرم‌افزار Affectiva می‌توان به کمک به کودکان مبتلا به اوتیسم، کمک به افراد نابینا برای خواندن حالات چهره، کمک به روبات‌ها برای تعامل هوشمندانه‌تر با مردم و نظارت بر علائم هشدار هنگام رانندگی به منظور افزایش ایمنی راننده اشاره کرد.[۲۸]

اسنپ چت در سال ۲۰۱۵ یک ثبت اختراع انجام داد. این اختراع، روشی را برای استخراج داده‌های مربوط به جمعیت در رویدادهای عمومی، با اجرای الگوریتمی شناسایی احساسات بر روی سلفی‌های برچسب جغرافیایی‌دار کاربران شرح می‌دهد.[۲۹]

Emotient یک شرکت استارتاپی بود که از تشخیص احساسات برای خواندن اخم‌ها، لبخندها و سایر حالات روی صورت، یعنی هوش مصنوعی برای پیش‌بینی «نگرش‌ها و اعمال بر اساس حالات چهره» استفاده می‌کرد.[۳۰] اپل در سال ۲۰۱۶ Emotient را خرید و از فناوری تشخیص احساسات برای افزایش هوش هیجانی محصولات خود استفاده می‌کند.[۳۰]

nViso تشخیص احساسات بی‌درنگ را برای برنامه‌های وب و تلفن‌همراه از طریق یک API بی‌درنگ فراهم می‌کند.[۳۱] Visage Technologies AB تخمین احساسات را به عنوان بخشی از Visage SDK خود، برای بازاریابی و تحقیقات علمی و اهداف مشابه ارائه می‌دهد.[۳۲]

Eyeris یک شرکت تشخیص احساسات است که برای ادغام نرم‌افزار تجزیه و تحلیل چهره و شناسایی احساسات خود، با سازندگان سیستم‌های تعبیه شده از جمله خودروسازان و شرکت‌های رباتیکی (ساخت ربات‌های) اجتماعی کار می‌کند، همچنین این شرکت با سازندگان محتوای ویدیویی هم همکاری دارد، به این‌صورت که به آنها کمک می‌کند اثربخشی درک شده از خلاقیت ویدیویی کوتاه و بلند خود را اندازه‌گیری کنند.[۳۳][۳۴]

همچنین بسیاری از محصولات برای جمع‌آوری اطلاعات از احساسات مخابره شدهٔ برخط، از جمله از طریق فشار دادن دکمه «پسندیدم» و از طریق تعداد عبارات مثبت و منفی موجود در متن وجود دارند. همچنین تشخیص تأثیر در برخی از انواع بازی‌ها و واقعیت مجازی، هم برای اهداف آموزشی و هم برای این هدف که به بازیکنان کنترل طبیعی بیشتری بر روی آواتارهای اجتماعی خود بدهد، به‌طور فزاینده‌ای استفاده می‌شود.[نیازمند منبع]

زیرمجموعه‌های تشخیص عواطف[ویرایش]

تشخیص احساسات چنانچه به صورت اعمال چندین روش با ترکیب اشیاء مختلف، از جمله متن (مکالمه)، صدا، ویدیو و فیزیولوژی باشد، احتمالاً بهترین نتیجه را در شناسایی احساسات به دست می‌دهد.

تشخیص عواطف در متن[ویرایش]

داده‌های متنی هنگامی که در همه جای زندگی انسان در دسترس و رایگان باشند، یک هدف تحقیقاتی مطلوب برای تشخیص احساسات است. در مقایسه با انواع دیگر داده‌ها، ذخیره‌سازی داده‌های متنی، به دلیل تکرار مکرر کلمات و کاراکترها در زبان‌ها، کم حجم‌تر است و فشرده‌سازی آن آسان است. احساسات را می‌توان از دو گونه اساسی متنی استخراج کرد: متون نوشتاری و متون مکالمه (دیالوگ‌ها).[۳۵] برای متون نوشتاری، بسیاری از محققان بر روی کار در سطح جمله برای استخراج «کلمات/عبارات» معرف احساسات تمرکز می‌کنند.[۳۶][۳۷]

تشخیص عواطف در صوت[ویرایش]

در استخراج احساسات از صدا، جدای شناسایی احساسات در متن، سیگنال‌های صوتی هم برای شناسایی استفاده می‌شوند.[۳۸]

تشخیص عواطف در ویدیو[ویرایش]

داده‌های ویدیویی ترکیبی از داده‌های صوتی، داده‌های تصویری و گاهی داده‌های متنی (در شکل زیرنویس[۳۹]) است.

تشخیص عواطف در مکالمات[ویرایش]

تشخیص احساسات در مکالمه (ERC) نظرات بین شرکت‌کنندگان را از داده‌های عظیم مکالمه‌ای در پلتفرم‌های اجتماعی، مانند فیس‌بوک، توییتر، یوتیوب و دیگران استخراج می‌کند.[۲۴] تشخیص احساسات در مکالمه می‌تواند داده‌های ورودی مانند متن، صدا، ویدئو یا یک فرم ترکیبی را برای تشخیص چندین احساس مانند ترس، شهوت، درد و لذت دریافت کند.

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. Miyakoshi, Yoshihiro, and Shohei Kato. "Facial Emotion Detection Considering Partial Occlusion Of Face Using Baysian Network". Computers and Informatics (2011): 96–101.
  2. Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna and Anil Kumar Vuppala. "Improved emotion recognition using GMM-UBMs". 2015 International Conference on Signal Processing and Communication Engineering Systems
  3. B. Schuller, G. Rigoll M. Lang. "Hidden Markov model-based speech emotion recognition". ICME '03. Proceedings. 2003 International Conference on Multimedia and Expo, 2003.
  4. Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). "Non-linear frequency warping using constant-Q transformation for speech emotion recognition". 2021 International Conference on Computer Communication and Informatics (ICCCI). pp. 1–4. arXiv:2102.04029. doi:10.1109/ICCCI50826.2021.9402569. ISBN 978-1-72815-875-4. S2CID 231846518.
  5. Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. {{cite journal}}: |hdl-access= requires |hdl= (help)
  6. Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 September 2007). Multimodal emotion recognition from expressive faces, body gestures and speech. IFIP the International Federation for Information Processing (به انگلیسی). Vol. 247. pp. 375–388. doi:10.1007/978-0-387-74161-1_41. ISBN 978-0-387-74160-4.
  7. Price. "Tapping Into The Emotional Internet". TechCrunch (به انگلیسی). Retrieved 2018-12-12.
  8. ۸٫۰ ۸٫۱ ۸٫۲ ۸٫۳ ۸٫۴ ۸٫۵ Cambria, Erik (March 2016). "Affective Computing and Sentiment Analysis". IEEE Intelligent Systems. 31 (2): 102–107. doi:10.1109/MIS.2016.31.
  9. Cambria, Erik; Liu, Qian; Decherchi, Sergio; Xing, Frank; Kwok, Kenneth (2022). "SenticNet 7: A Commonsense-based Neurosymbolic AI Framework for Explainable Sentiment Analysis" (PDF). Proceedings of LREC. pp. 3829–3839.
  10. Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 November 2012). "Detecting implicit expressions of emotion in text: A comparative analysis". Decision Support Systems. 53 (4): 742–753. doi:10.1016/j.dss.2012.05.024. ISSN 0167-9236.
  11. ۱۱٫۰ ۱۱٫۱ ۱۱٫۲ Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (December 2014). "Sentiment analysis algorithms and applications: A survey". Ain Shams Engineering Journal. 5 (4): 1093–1113. doi:10.1016/j.asej.2014.04.011.
  12. ۱۲٫۰ ۱۲٫۱ Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). "Sentiment analysis techniques in recent works". 2015 Science and Information Conference (SAI). pp. 288–291. doi:10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. S2CID 14821209.
  13. Hemmatian, Fatemeh; Sohrabi, Mohammad Karim (18 December 2017). "A survey on classification techniques for opinion mining and sentiment analysis". Artificial Intelligence Review. 52 (3): 1495–1545. doi:10.1007/s10462-017-9599-6.
  14. ۱۴٫۰ ۱۴٫۱ ۱۴٫۲ Sun, Shiliang; Luo, Chen; Chen, Junyu (July 2017). "A review of natural language processing techniques for opinion mining systems". Information Fusion. 36: 10–25. doi:10.1016/j.inffus.2016.10.004.
  15. Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (March 2017). "Deep Learning-Based Document Modeling for Personality Detection from Text". IEEE Intelligent Systems. 32 (2): 74–79. doi:10.1109/MIS.2017.23.
  16. Mahendhiran, P. D.; Kannimuthu, S. (May 2018). "Deep Learning Techniques for Polarity Classification in Multimodal Sentiment Analysis". International Journal of Information Technology & Decision Making. 17 (3): 883–910. doi:10.1142/S0219622018500128.
  17. Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 October 2017). Temporally Selective Attention Model for Social and Affective State Recognition in Multimedia Content. MM '17. ACM. pp. 1743–1751. doi:10.1145/3123266.3123413. ISBN 978-1-4503-4906-2. S2CID 3148578.
  18. Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 April 2003). "Emotional speech: towards a new generation of databases". Speech Communication. 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991. doi:10.1016/S0167-6393(02)00070-5. ISSN 0167-6393.
  19. McKeown, G.; Valstar, M.; Cowie, R.; Pantic, M.; Schroder, M. (January 2012). "The SEMAINE Database: Annotated Multimodal Records of Emotionally Colored Conversations between a Person and a Limited Agent". IEEE Transactions on Affective Computing. 3 (1): 5–17. doi:10.1109/T-AFFC.2011.20.
  20. Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Mower, Emily; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 November 2008). "IEMOCAP: interactive emotional dyadic motion capture database". Language Resources and Evaluation (به انگلیسی). 42 (4): 335–359. doi:10.1007/s10579-008-9076-6. ISSN 1574-020X.
  21. Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Pun, Thierry; Nijholt, Anton; Patras, Ioannis (January 2012). "DEAP: A Database for Emotion Analysis Using Physiological Signals". IEEE Transactions on Affective Computing. 3 (1): 18–31. CiteSeerX 10.1.1.593.8470. doi:10.1109/T-AFFC.2011.15. ISSN 1949-3045.
  22. Katsigiannis, Stamos; Ramzan, Naeem (January 2018). "DREAMER: A Database for Emotion Recognition Through EEG and ECG Signals From Wireless Low-cost Off-the-Shelf Devices" (PDF). IEEE Journal of Biomedical and Health Informatics. 22 (1): 98–107. doi:10.1109/JBHI.2017.2688239. ISSN 2168-2194. PMID 28368836. Archived from the original (PDF) on 1 November 2022. Retrieved 1 November 2022.
  23. Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). "MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversations". Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics: 527–536. arXiv:1810.02508. doi:10.18653/v1/p19-1050.
  24. ۲۴٫۰ ۲۴٫۱ Poria, S. , Majumder, N. , Mihalcea, R. , & Hovy, E. (2019). Emotion recognition in conversation: Research challenges, datasets, and recent advances. IEEE Access, 7, 100943-100953.
  25. Stappen, Lukas; Schuller, Björn; Lefter, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). "Summary of MuSe 2020: Multimodal Sentiment Analysis, Emotion-target Engagement and Trustworthiness Detection in Real-life Media". Proceedings of the 28th ACM International Conference on Multimedia. Seattle, PA, USA: Association for Computing Machinery: 4769–4770. arXiv:2004.14858. doi:10.1145/3394171.3421901.
  26. Ho, Vong (2020). "Emotion Recognition for Vietnamese Social Media Text". 16th International Conference of the Pacific Association for Computational Linguistics (PACLING 2019). Communications in Computer and Information Science. 1215: 319–333. arXiv:1911.09339. doi:10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2.
  27. Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (February 2021). "BED: A new dataset for EEG-based biometrics". IEEE Internet of Things Journal. (Early Access) (15): 1. doi:10.1109/JIOT.2021.3061727. ISSN 2327-4662.
  28. "Affectiva".
  29. Bushwick, Sophie. "This Video Watches You Back". Scientific American (به انگلیسی). Retrieved 2020-01-27.
  30. ۳۰٫۰ ۳۰٫۱ DeMuth Jr., Chris (8 January 2016). "Apple Reads Your Mind". M&A Daily. Seeking Alpha. Retrieved 9 January 2016.
  31. "nViso". nViso.ch. Archived from the original on 28 August 2018. Retrieved 20 November 2022.
  32. "Visage Technologies".
  33. "Feeling sad, angry? Your future car will know".
  34. Varagur, Krithika (2016-03-22). "Cars May Soon Warn Drivers Before They Nod Off". Huffington Post.
  35. Shivhare, S. N. , & Khethawat, S. (2012). Emotion detection from text. arXiv preprint آرخیو:1205.4944
  36. Ezhilarasi, R. , & Minu, R. I. (2012). Automatic emotion recognition and classification. Procedia Engineering, 38, 21-26.
  37. Krcadinac, U. , Pasquier, P. , Jovanovic, J. , & Devedzic, V. (2013). Synesketch: An open source library for sentence-based emotion recognition. IEEE Transactions on Affective Computing, 4(3), 312-325.
  38. Schmitt, M. , Ringeval, F. , & Schuller, B. W. (2016, September). At the Border of Acoustics and Linguistics: Bag-of-Audio-Words for the Recognition of Emotions in Speech. In Interspeech (pp. 495-499).
  39. Dhall, A. , Goecke, R. , Lucey, S. , & Gedeon, T. (2012). Collecting large, richly annotated facial-expression databases from movies. IEEE multimedia, (3), 34-41.