رویکرد ترکیبی تحلیل زبان بدن مبتنی بر هوش مصنوعی برای ارائه بازخورد شنیداری به نابینایان
الموضوعات : Educational
سهیل نادری
1
,
طهمورث شیری
2
,
افسانه مظفری
3
,
محمد سلطانی فر
4
1 - دانشجوی دکتری دانشگاه آزاد اسلامی واحد علوم و تحقیقات
2 - دانشیار، گروه علوم اجتماعی، واحد تهران مرکز، دانشگاه آزاد اسلامی،تهران،ایران.
3 - عضو هیئت علمی، دانشیار ومدیر گروه علوم ارتباطات اجتماعی، واحد علوم وتحقیقات، دانشگاه آزاد اسلامی،تهران،ایران.
4 - استاد گروه علوم ارتباطات اجتماعی، واحد علوم وتحقیقات، دانشگاه آزاد اسلامی،تهران،ایران.
الکلمات المفتاحية: هوش مصنوعی, تحلیل زبان بدن, بازخورد شنیداری, نابینایان, نظریه دادهبنیاد, فناوری کمکی.,
ملخص المقالة :
ارتباط انسانها بخش عمدهای از معنا و پیامهای خود را از طریق نشانههای غیرکلامی مانند حرکات بدن، حالات چهره و لحن صدا منتقل میکند؛ بهطوری که تحقیقات نشان دادهاند بیش از ۶۵ درصد اطلاعات ارتباطی از طریق این نشانهها به مخاطب منتقل میشود. افراد نابینا به دلیل محرومیت از ادراک دیداری این نشانهها، در درک عواطف، نگرشها و پیامهای پنهان دیگران دچار چالشهای اساسی هستند که منجر به محدودیت در کیفیت تعاملات میانفردی و آسیب به مشارکت اجتماعی آنان میگردد. در این پژوهش، با هدف کاهش این شکاف ارتباطی، الگویی ترکیبی برای تحلیل زبان بدن مبتنی بر فناوری هوش مصنوعی و ارائه بازخورد شنیداری مؤثر به نابینایان طراحی شده است. رویکرد تحقیق بهصورت ترکیبی و از نوع کیفی با بهرهگیری از نظریه دادهبنیاد (Grounded Theory) به سبک گلیزر است و دادهها از طریق ۱۳ مصاحبه عمیق با نابینایان و ۱۹ مصاحبه نیمهساختاریافته با متخصصان فناوری اطلاعات گردآوری شده است. تحلیل دادهها به کمک روش سهمرحلهای کدگذاری باز، محوری و انتخابی انجام و تا حصول اشباع نظری ادامه یافته است. مقوله محوری استخراجشده، «طراحی انسانیمحور ابزار هوشمند تحلیل زبان بدن با تأکید بر بازخورد صوتی بلادرنگ» میباشد که در برگیرنده مؤلفههای کلیدی شامل شدت هیجان، جهت نگاه، فاصله تعاملی و حرکات شانه است. الگوی نهایی ارائه شده، شامل سختافزار هندزفری دوربیندار و نرمافزار هوشمند روی گوشی تلفنهمراه است که دادههای تصویری و صوتی محیط را به صورت آنی تجزیه و تحلیل و بهطور بلادرنگ بازخورد صوتی قابل فهم به کاربر ارائه میکند. نتایج نشان میدهد این الگو میتواند تأثیر چشمگیری در بهبود ارتباطات نابینایان در حوزههای آموزشی، کاری و اجتماعی داشته باشد و علاوه بر نوآوری نظری، چشماندازی کاربردی برای توسعه فناوریهای کمکی هوشمند فراهم نماید.
فارسی
• احمدی، ن.، و همکاران. (۱۳۹۸). آموزش الکترونیکی برای نابینایان: بررسی نقش فناوریهای تعاملی. مجله علوم تربیتی ایران, ۱۵(۲), ۴۵-۶۰.
• حسینی، م.، و همکاران. (۱۴۰۰). چالشهای ارتباطی نابینایان و نقش فناوریهای کمکی در بهبود کیفیت زندگی. مجله رفاه اجتماعی, ۲۱(۴), ۱۱-۳۵.
• کریمی، الف. (۱۴۰۱). فناوریهای کمکی برای افراد دارای معلولیت بینایی. تهران: انتشارات دانشگاه آزاد.
• زارع، م. (۱۳۹۹). زبان بدن و ارتباطات غیرکلامی در تعاملات نابینایان. مجله روانشناسی اجتماعی, ۱۲(۱), ۲۳-۴۰.
• صادقی، ع.، و همکاران. (۱۴۰۱). الگوریتمهای تشخیص موانع در مسیر حرکتی نابینایان با استفاده از گوشیهای هوشمند. مجله فناوری اطلاعات ایران, ۱۰(۳), ۷۸-۹۲.
• رضایی، س.، و احمدی، ن. (۱۳۹۸). نظریه دادهبنیاد: رویکردی برای کشف مدلهای بومی در علوم انسانی. پژوهشنامه علوم اجتماعی, ۱۳(۲), ۷۵-۱۰۲.
انگلیسی
• Ekman, P., & Friesen, W. V. (1969). The repertoire of nonverbal behavior. Semiotica, 1(1), 49-98.
• Glaser, B. G., & Strauss, A. L. (1967). The discovery of grounded theory: Strategies for qualitative research. Chicago: Aldine.
• Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
• Guerrero, L. K., & Floyd, K. (2006). Nonverbal communication in close relationships. Routledge.
• Hersh, M., & Johnson, M. A. (2010). Assistive technology for visually impaired and blind people. London: Springer.
• Kelly, S. M. (2011). Assistive technology for visually impaired: Innovations and challenges. Journal of Visual Impairment & Blindness, 105(5), 301-310.
• Knapp, M. L., & Hall, J. A. (2010). Nonverbal communication in human interaction (7th ed.). Boston: Wadsworth.
• Mehrabian, A. (1972). Nonverbal communication. Chicago: Aldine-Atherton.
• Samadani, A., et al. (2019). Body language in education: Assessing student engagement. IEEE Transactions on Education, 62(4), 567-575.
• Sun, K., et al. (2019). Deep high-resolution representation learning for human pose estimation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 569-577.
• Wang, S., et al. (2020). Depression detection via body language analysis. IEEE Journal of Biomedical and Health Informatics, 24(8), 2190-2200.
• Yang, J., et al. (2023). AI-based assistive systems for visually impaired users. ACM Transactions on Accessible Computing, 16(2), 1-25.
• Zadeh, A., Chen, M., Poria, S., Cambria, E., & Morency, L.-P. (2018). Multimodal sentiment analysis with word-level fusion and reinforcement learning. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, 2237-2246.