Video Ek Açıklamalarıyla Sağır ve Dilsiz İşbirliğini Geliştirme

Mevcut verilere değiştirilmeden bilgi eklenmesini sağlayan çevrimiçi notlar, web sayfalarıyla ve kullanıcı sorgularıyla etkileşime geçmek için çok önemli bir teknik olarak ortaya çıkmıştır. Ek açıklamaların görünürlüğü kullanıcı gruplarıyla sınırlandırıldığında, ek açıklamalar benzer ilgi alanlarına sahip kullanıcılar (Annotators) arasında hedeflenen işbirliği için bir araç haline gelir. Çevrimiçi kullanıcı görüşmelerini ve işbirliğini geliştirmek için birçok strateji geliştirilmiştir. Web siteleri, kullanıcıların metinler, fotoğraflar ve videolar gibi sayfa öğelerine yorumlar (ek açıklamalar olarak da bilinir) ekleyerek çevrimiçi tartışmalara katılmalarını sağladığından, bunun için uygun ortamlar olarak görülüyor. Yazılı, sözlü, görsel ve grafik dahil olmak üzere çok sayıda ek açıklama türü vardır. Metin açıklamaları iyi bilinmesine rağmen, kullanıcılar, konuşma yapmak ve fikir alışverişinde bulunmak için HTML web belgesi bileşenlerine giderek artan bir şekilde kendi video yorumlarını ekliyor. Bu, sağır ve terk edilmiş kişilerin çevrimiçi bir tartışmaya katılma şansına sahip olmalarını sağlar. Çalışmanın sonunda, umut verici sonuçların elde edildiği kullanıcılar arasındaki işbirliği yüzdelerini hesaplamak için kapsamlı bir deneysel test gerçekleştirdik.

Enhancing Deaf and Dumb Collaboration by Video Annotations

Online annotations, which enable information to be added to existing data without altering it, have emerged as a crucial technique for engaging with web pages and user queries. Annotations become a tool for targeted collaboration between users (Annotators) with similar interests when the visibility of annotations is restricted to groups of users. Many strategies have been developed to improve online user conversations and collaboration. Websites are suitable media for that since they enable users to engage in online discussions by adding comments (also known as annotations) to page elements like texts, photos, and videos. There are numerous annotations, including written, spoken, visual, and graphic. Although textual annotations are well-known, users are increasingly adding their own video comments to the HTML web document components to have conversations and exchange ideas. This enables deaf and dumb people to have the chance to participate in online discussions. At the end of the work, we conducted a comprehensive experimental test in order to compute the collaboration percentages between users in which promising results were achieved.

___

  • Brinberg, Miriam, and David M. Lydon-Staley. "Conceptualizing and Examining Change in Communication Research."Communication Methods and Measures (2023): 1-24.‏
  • Garcia, Manuel B., and Ahmed Mohamed Fahmy Yousef. "Cognitive and affective effects of teachers’ annotations and talking heads on asynchronous video lectures in a web development course." Research and Practice in Technology Enhanced Learning 18 (2023).‏
  • Neves, Mariana, and Jurica Ševa. "An extensive review of tools for manual annotation of documents." Briefings in bioinformatics 22.1 (2021): 146-163.‏
  • Antico, Matteo, et al. "An interactive tool for sketch-based annotation." JJAP Conference Proceedings 14th International Conference on Global Research and Education, Inter-Academia 2015. The Japan Society of Applied Physics, 2016.‏
  • E. Asmar, S. Salahat, F. Zubdeh and A. Hawash, "Enhancing Users Collaboration By Vocal Annotations," 2021 18th International Multi-Conference on Systems, Signals & Devices (SSD), Monastir, Tunisia, 2021, pp. 845-851, doi: 10.1109/SSD52085.2021.9429432.
  • Whitburn, Ben, and Rod Michalko. "Blindness/sightedness: Disability studies and the defiance of di-vision." (2020).
  • Alhassan, Fatemah, et al. "Technology-based services for deaf and dumb people." International Journal of Data Science 5.2 (2020): 160-167.
  • C. Steeples, “Voice annotation of multimedia artifacts: reflective learning in distributed professional communities,” in Proceedings of the 35th Annual Hawaii International Conference on System Sciences, 2002, pp. 10 pp.–
  • T. van Bergen, M. Engineering, Y. Kudo, R. Ishiyama, T. Takahashi, K. Makino, and J. Goosen, “Indexing and retrieving voice recordings by instantly tagging mentioned objects with dots,” 04 2019.