TVCG2020_EmotionCues
2021-02-19 19:57:38 24 举报
AI智能生成
论文EmotionCues的阅读思维导图,文章发表在顶会TVCG2020,作者来自港中文的团队
作者其他创作
大纲/内容
摘要
※ 指出分析学生表情有助教师和家长快速掌握学生上课专注程度。<br>※ <font color="#c41230">高清相机</font>的普及为记录课堂场景创造了机会。但是通过观察视频了解表情分布和异常表情非常耗时间。<br>※ 文章提出了EmotionCues视觉分析系统进行表情分析,有3部分:<font color="#c41230">表情概略、个人表情、原视频路</font><br>※ 考虑到表情识别算法的一些<font color="#c41230">不精确因素</font>,系统也会展示face size和occlusion,辅助判断准确度。<br>※ 实验部分:执行了两种use cases,即e<font color="#c41230">nd uses</font>和<font color="#c41230">domain experts</font>,来说明提出系统的用途和高效性。
关键词
Emotion, Classroom videos, Visual summarization, Visual analytics
介绍
说明表情<font color="#c41230">在教室分析中的意义</font>:研究表明表情可以影响学生学习行为,包括注意力、学习动力、学习策略和自觉性
提问如何才能通过录制的课堂视频,帮助教师和家长<font color="#c41230">快速了解学生的情绪状态</font>
指出直接观看视频<font color="#c41230">非常耗时</font>,而现有的视频分析技术不适用于表情分析,并解释原因,凸显<font color="#c41230">可视化交互分析系统</font>的重要性
回到系统本身,实现可视化分析一节课中所有学生的表情变化并不容易,引出<font color="#c41230">三大挑战</font>,不再赘述
为了解决上述挑战,作者设计了<font color="#c41230">EmotionCues系统</font>,系统包括<font color="#c41230">三种视角</font>:the summary view、character view、video view,<br>同时,系统也考虑到了<font color="#c41230">表情识别的不准确性</font>,在交互设计时加入了可能的不稳定因素。<br>
论文<font color="#c41230">三大贡献</font>:设计了表情可视化交互系统;加入了模型不稳定性;执行了两个真实案例说明实际效果
相关工作
<b>Emotion Analysis in Learning Scenario</b>s:再次叙述表情分析对掌握学生状态的重要性,细节处有参考文献。在此之前,<br>有很多方法被用于分析学生学习状态下的表情,文章将其分为两大类:<font color="#c41230">self-report methods</font>和<font color="#c41230">non-self-report methods,<br></font>论文选择后者 ,并借助CV技术分析表情。另外,数据可视化更加有助于这一过程,通过文献举例说明现有可视化系统的短板<br>和缺陷,为后续引出提出系统的相应功能做准备。<br>
<b>Video Visualization</b>:视频可视化的初衷是帮助快速了解视频内容,这一领域已经发展较为成熟。文章按照是否包含视频<br>关键帧,将这项技术分为两大类:<font color="#c41230">image-based techniques</font>和<font color="#c41230">abstract techniques,</font><font color="#000000">前者是视频关键信息组成的更简短<br>视频,后者通常依据时间顺序非直接地给出视频的可视化属性,例如音频分析、人物轨迹图等。论文采用了后者,同时加入<br>了</font><font color="#c41230">表情识别模型不确定性分析模块</font><font color="#000000">,这是文章主打的一大创新。</font><br>
<b>Temporal Data Visualization</b>:首先引用具体文献,介绍了一些强关联的时序数据可视化方法,接着,从中受启发挑选了<br>系统将要使用的方法:<font color="#c41230">the aggregation flow</font>和<font color="#c41230">storyline visualization techniques。</font><font color="#000000">此系统最终将提供</font><font color="#c41230">全体学生的表情变化<br>分析</font><font color="#000000">,以及每个学生的表情状态跟踪线。</font><br>
数据与<br>设计需求<br>
<b>Data Description</b>:课堂视频数据来自合作方幼儿园,采用1K相机录制,每份时长约10分钟。为了对比,还会选择分析大学<br>实验室的组会讨论场景<br>
<b>Data Modeling and Processing</b>:上图为视频数据处理流程。人脸检测使用的是<font color="#c41230">MTCNN(SPL2016)</font>,人脸识别使用的是<br><font color="#c41230">facenet(CVPR2015)</font>,人脸表情识别使用的是<font color="#c41230">ResNet-50</font>,使用的数据集为<font color="#c41230">FER2013</font>。此外,系统还会考虑<font color="#c41230">表情识别算法的<br>不准确性</font>,加入了可能的影响因素,包括人脸尺寸、人脸遮挡程度,遮挡程度的深度检测算法来自<font color="#c41230">TIV2017</font>中的一篇文章。<br>
<b>Design Requirements</b>:经过与4位系统用户的沟通,搜集整理他们的反馈,得到了以下<font color="#c41230">5点需求</font>:<br>1)Obtain the emotion status of all the people in a video. 2)Uncover emotion patterns of an individual in a video. <br>3)Compare emotion portraits of different people. 4)Reveal model uncertainty with influencing factors.<br>5)Provide context for video analysis.<br>
<b>SYSTEM OVERVIEW</b>:按照之前的设计规划,一共包括三种视角,summary view;character view;video view
可视化<br>设计<br>
<b>Design Rationales</b>:EmotionCues系统包括以下三种设计理念:Intuitive encoding and design,<br>Smooth interactions with prompt feedback,Multi-scale visual exploration.<br>
<b>Summary View</b>:这是EmotionCues系统的 前端界面,每个part所展示的含义,通过简单阅读说明,即可了解
<b>Character View</b>:该视角观察每个学生在整堂课中的表情变化,设计方式见上图中的子图C
<b>Video View</b>:该视角播放原课堂视频路,用户可以暂停查看每一帧的检测结果,并对不准确的结果进行纠查
用例
<b>Case One: A kindergarten classroom video<br></b>受访对象是<font color="#c41230">幼儿园教师</font>,具体教室产场景如上图中的子图D。据教师使用系统之后反映,EmotionCues上手较为方便,能够在一定<br>程度上监测学生的听课状态,并帮助及时了解每个学生的情绪变化。反映的缺点是,<font color="#c41230">表情识别算法的准确率很低</font>。<br>
<b>Case Two: Seminar videos</b><br>受访对象为<font color="#c41230">大学教授</font>,场景是<font color="#c41230">实验室组会讨论现场</font>,如上图所示。教授觉得系统可以帮助其快速了解组会的讨论情况,有较大实用<br>价值,缺点是系统<font color="#c41230">不能直接看到学生的专注度指标</font>。<br>
<b>INTERVIEWS AND FEEDBACK</b>:通过采访调查之前提到的4位用户使用感受,验证系统的<font color="#c41230">有效性和可用性</font>,并收集<font color="#c41230">意见和建议</font>。
结论
<b>DISCUSSION AND LIMITATIONS</b>:隐私问题需要注意;深度模型的应用性能问题;表情识别的准确性低;可扩展性;通用性
<b>CONCLUSION AND FUTURE WORK</b>:在重述并肯定了EmotionCues系统的贡献之后,作者觉得可以加入<font color="#c41230">头部姿态估计</font>来辅助<br>情绪判断,或者换用<font color="#c41230">更好的更准确的</font>表情识别算法。甚至将EmotionCues系统拓展到其他领域,如电影和演讲。<br>
0 条评论
下一页