 <?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>http://101.6.32.246:2215/index.php?action=history&amp;feed=atom&amp;title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84%2F%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89</id>
	<title>动捕小组/计算机视觉 - 版本历史</title>
	<link rel="self" type="application/atom+xml" href="http://101.6.32.246:2215/index.php?action=history&amp;feed=atom&amp;title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84%2F%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89"/>
	<link rel="alternate" type="text/html" href="http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;action=history"/>
	<updated>2026-04-15T22:22:45Z</updated>
	<subtitle>本wiki上该页面的版本历史</subtitle>
	<generator>MediaWiki 1.40.1</generator>
	<entry>
		<id>http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=1135&amp;oldid=prev</id>
		<title>Admin：​Edit summary</title>
		<link rel="alternate" type="text/html" href="http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=1135&amp;oldid=prev"/>
		<updated>2024-01-18T15:11:21Z</updated>

		<summary type="html">&lt;p&gt;Edit summary&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;zh-Hans-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2024年1月18日 (四) 23:11的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l40&quot;&gt;第40行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第40行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 人体姿态估计 =&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 人体姿态估计 =&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 二维 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 二维 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields|prefix=动捕小组/计算机视觉|toggled=二维人体姿态估计方法领域的经典文章，提出了多人实时二维姿态估计方法，在计算资源可观的情况下兼具实时性和较高的准确度，在该领域内的相关研究应用中被广泛引用。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields|prefix=动捕小组/计算机视觉|toggled=二维人体姿态估计方法领域的经典文章，提出了多人实时二维姿态估计方法，在计算资源可观的情况下兼具实时性和较高的准确度，在该领域内的相关研究应用中被广泛引用。&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;|Citation_=11783&lt;/ins&gt;}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=BlazePose: On-device Real-time Body Pose Tracking|prefix=动捕小组/计算机视觉|toggled=轻量级二维人体姿态估计经典方法，具有算力资源要求低、准确度高等特点，可部署在笔记本电脑、移动手机等边缘设备上，当下被广泛应用于使用轻量级二维人体姿态估计方法实现各类运动分析的应用中。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=BlazePose: On-device Real-time Body Pose Tracking|prefix=动捕小组/计算机视觉|toggled=轻量级二维人体姿态估计经典方法，具有算力资源要求低、准确度高等特点，可部署在笔记本电脑、移动手机等边缘设备上，当下被广泛应用于使用轻量级二维人体姿态估计方法实现各类运动分析的应用中。&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;|Citation_=467&lt;/ins&gt;}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 三维 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 三维 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;|Citation_=1005&lt;/ins&gt;}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 基于单目视频 =&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 基于单目视频 =&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 帕金森患者UPDRS评分预测 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 帕金森患者UPDRS评分预测 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=Quantifying Parkinson’s Disease Motor Severity Under Uncertainty Using MDS-UPDRS Videos|prefix=动捕小组/计算机视觉|toggled=本文提出评分混淆矩阵解决不同评分者对同一帕金森病患者的MDS-UPDRS视频有不同评分导致的标签噪声问题，并设计了神经网络模型对输入的MDS-UPDRS视频预测分类其MDS-UPDRS评分，是计算机视觉技术在跟踪评估帕金森患者病重程度方向的实际应用示例。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=Quantifying Parkinson’s Disease Motor Severity Under Uncertainty Using MDS-UPDRS Videos|prefix=动捕小组/计算机视觉|toggled=本文提出评分混淆矩阵解决不同评分者对同一帕金森病患者的MDS-UPDRS视频有不同评分导致的标签噪声问题，并设计了神经网络模型对输入的MDS-UPDRS视频预测分类其MDS-UPDRS评分，是计算机视觉技术在跟踪评估帕金森患者病重程度方向的实际应用示例。&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;|Citation_=44&lt;/ins&gt;}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 人体运动分析 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 人体运动分析 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=Deep neural networks enable quantitative movement analysis using single-camera videos|prefix=动捕小组/计算机视觉|toggled=本文提出的方法使得基于居家或于医院使用普通相机拍摄的单目视频进行人体的量化运动分析成为可能，而不再依赖于深度相机、光学动捕设备等昂贵硬件采集数据，可参考本文中提出的方法流程设计便捷的分析方法开展大规模神经肌肉类疾病患者的量化运动分析。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=Deep neural networks enable quantitative movement analysis using single-camera videos|prefix=动捕小组/计算机视觉|toggled=本文提出的方法使得基于居家或于医院使用普通相机拍摄的单目视频进行人体的量化运动分析成为可能，而不再依赖于深度相机、光学动捕设备等昂贵硬件采集数据，可参考本文中提出的方法流程设计便捷的分析方法开展大规模神经肌肉类疾病患者的量化运动分析。&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;|Citation_=175&lt;/ins&gt;}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{主领域分类}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{主领域分类}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Admin</name></author>
	</entry>
	<entry>
		<id>http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=803&amp;oldid=prev</id>
		<title>Admin：​Edit summary</title>
		<link rel="alternate" type="text/html" href="http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=803&amp;oldid=prev"/>
		<updated>2023-11-07T09:44:42Z</updated>

		<summary type="html">&lt;p&gt;Edit summary&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;zh-Hans-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2023年11月7日 (二) 17:44的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l31&quot;&gt;第31行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第31行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;     el&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;     el&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;   } = markmap.Toolbar.create(mm);&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;   } = markmap.Toolbar.create(mm);&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;   el.setAttribute('style', 'position:absolute;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;top&lt;/del&gt;:&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;240px&lt;/del&gt;;right:&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;420px&lt;/del&gt;'&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;);&lt;/del&gt;&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;   el.setAttribute('style', 'position:absolute;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;bottom&lt;/ins&gt;:&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;20px&lt;/ins&gt;;right:&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;20px&lt;/ins&gt;');&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;  document.body.append(el&lt;/del&gt;);&lt;/div&gt;&lt;/td&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-added&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;})&amp;lt;/script&amp;gt;&amp;lt;script&amp;gt;((getMarkmap, getOptions, root, jsonOptions) =&amp;gt; {&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;})&amp;lt;/script&amp;gt;&amp;lt;script&amp;gt;((getMarkmap, getOptions, root, jsonOptions) =&amp;gt; {&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;           const markmap = getMarkmap();&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;           const markmap = getMarkmap();&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Admin</name></author>
	</entry>
	<entry>
		<id>http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=728&amp;oldid=prev</id>
		<title>Admin：​Edit summary</title>
		<link rel="alternate" type="text/html" href="http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=728&amp;oldid=prev"/>
		<updated>2023-11-06T12:42:10Z</updated>

		<summary type="html">&lt;p&gt;Edit summary&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;zh-Hans-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2023年11月6日 (一) 20:42的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l45&quot;&gt;第45行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第45行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 三维 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 三维 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&lt;/del&gt;&lt;/div&gt;&lt;/td&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-added&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 基于单目视频 =&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 基于单目视频 =&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 帕金森患者UPDRS评分预测 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 帕金森患者UPDRS评分预测 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l51&quot;&gt;第51行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第50行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 人体运动分析 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 人体运动分析 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=Deep neural networks enable quantitative movement analysis using single-camera videos|prefix=动捕小组/计算机视觉|toggled=本文提出的方法使得基于居家或于医院使用普通相机拍摄的单目视频进行人体的量化运动分析成为可能，而不再依赖于深度相机、光学动捕设备等昂贵硬件采集数据，可参考本文中提出的方法流程设计便捷的分析方法开展大规模神经肌肉类疾病患者的量化运动分析。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=Deep neural networks enable quantitative movement analysis using single-camera videos|prefix=动捕小组/计算机视觉|toggled=本文提出的方法使得基于居家或于医院使用普通相机拍摄的单目视频进行人体的量化运动分析成为可能，而不再依赖于深度相机、光学动捕设备等昂贵硬件采集数据，可参考本文中提出的方法流程设计便捷的分析方法开展大规模神经肌肉类疾病患者的量化运动分析。}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-deleted&quot;&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;{{主领域分类}}&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Admin</name></author>
	</entry>
	<entry>
		<id>http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=686&amp;oldid=prev</id>
		<title>2023年11月6日 (一) 11:12 Admin</title>
		<link rel="alternate" type="text/html" href="http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=686&amp;oldid=prev"/>
		<updated>2023-11-06T11:12:34Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;zh-Hans-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2023年11月6日 (一) 19:12的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l45&quot;&gt;第45行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第45行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 三维 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 三维 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-deleted&quot;&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 基于单目视频 =&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;= 基于单目视频 =&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 帕金森患者UPDRS评分预测 ==&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;== 帕金森患者UPDRS评分预测 ==&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Admin</name></author>
	</entry>
	<entry>
		<id>http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=617&amp;oldid=prev</id>
		<title>Admin：​Edit summary</title>
		<link rel="alternate" type="text/html" href="http://101.6.32.246:2215/index.php?title=%E5%8A%A8%E6%8D%95%E5%B0%8F%E7%BB%84/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89&amp;diff=617&amp;oldid=prev"/>
		<updated>2023-11-06T06:58:59Z</updated>

		<summary type="html">&lt;p&gt;Edit summary&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;= 主干领域 =&lt;br /&gt;
&amp;lt;html&amp;gt;&lt;br /&gt;
&amp;lt;head&amp;gt;&lt;br /&gt;
&amp;lt;meta charset=&amp;quot;UTF-8&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;meta name=&amp;quot;viewport&amp;quot; content=&amp;quot;width=device-width, initial-scale=1.0&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;meta http-equiv=&amp;quot;X-UA-Compatible&amp;quot; content=&amp;quot;ie=edge&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;title&amp;gt;Markmap&amp;lt;/title&amp;gt;&lt;br /&gt;
&amp;lt;style&amp;gt;&lt;br /&gt;
* {&lt;br /&gt;
  margin: 0;&lt;br /&gt;
  padding: 0;&lt;br /&gt;
}&lt;br /&gt;
#mindmap {&lt;br /&gt;
  display: block;&lt;br /&gt;
  width: 47vw;&lt;br /&gt;
  height: 25vh;&lt;br /&gt;
}&lt;br /&gt;
&amp;lt;/style&amp;gt;&lt;br /&gt;
&amp;lt;link rel=&amp;quot;stylesheet&amp;quot; href=&amp;quot;https://cdn.jsdelivr.net/npm/markmap-toolbar@0.15.3/dist/style.css&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;/head&amp;gt;&lt;br /&gt;
&amp;lt;body&amp;gt;&lt;br /&gt;
&amp;lt;svg id=&amp;quot;mindmap&amp;quot;&amp;gt;&amp;lt;/svg&amp;gt;&lt;br /&gt;
&amp;lt;script src=&amp;quot;https://cdn.jsdelivr.net/npm/d3@7.8.5/dist/d3.min.js&amp;quot;&amp;gt;&amp;lt;/script&amp;gt;&amp;lt;script src=&amp;quot;https://cdn.jsdelivr.net/npm/markmap-view@0.15.3/dist/browser/index.js&amp;quot;&amp;gt;&amp;lt;/script&amp;gt;&amp;lt;script src=&amp;quot;https://cdn.jsdelivr.net/npm/markmap-toolbar@0.15.3/dist/index.js&amp;quot;&amp;gt;&amp;lt;/script&amp;gt;&amp;lt;script&amp;gt;(r =&amp;gt; {&lt;br /&gt;
                setTimeout(r);&lt;br /&gt;
              })(() =&amp;gt; {&lt;br /&gt;
  const {&lt;br /&gt;
    markmap,&lt;br /&gt;
    mm&lt;br /&gt;
  } = window;&lt;br /&gt;
  const {&lt;br /&gt;
    el&lt;br /&gt;
  } = markmap.Toolbar.create(mm);&lt;br /&gt;
  el.setAttribute('style', 'position:absolute;top:240px;right:420px');&lt;br /&gt;
  document.body.append(el);&lt;br /&gt;
})&amp;lt;/script&amp;gt;&amp;lt;script&amp;gt;((getMarkmap, getOptions, root, jsonOptions) =&amp;gt; {&lt;br /&gt;
          const markmap = getMarkmap();&lt;br /&gt;
          window.mm = markmap.Markmap.create('svg#mindmap', (getOptions || markmap.deriveOptions)(jsonOptions), root);&lt;br /&gt;
        })(() =&amp;gt; window.markmap,null,{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:0,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[0,1]},&amp;quot;content&amp;quot;:&amp;quot;计算机视觉&amp;quot;,&amp;quot;children&amp;quot;:[{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:1,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[1,2]},&amp;quot;content&amp;quot;:&amp;quot;人体姿态估计&amp;quot;,&amp;quot;children&amp;quot;:[{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:2,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[2,3]},&amp;quot;content&amp;quot;:&amp;quot;二维&amp;quot;,&amp;quot;children&amp;quot;:[]},{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:2,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[3,4]},&amp;quot;content&amp;quot;:&amp;quot;三维&amp;quot;,&amp;quot;children&amp;quot;:[]}]},{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:1,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[4,5]},&amp;quot;content&amp;quot;:&amp;quot;基于单目视频&amp;quot;,&amp;quot;children&amp;quot;:[{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:2,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[5,6]},&amp;quot;content&amp;quot;:&amp;quot;帕金森患者UPDRS评分预测&amp;quot;,&amp;quot;children&amp;quot;:[]},{&amp;quot;type&amp;quot;:&amp;quot;heading&amp;quot;,&amp;quot;depth&amp;quot;:2,&amp;quot;payload&amp;quot;:{&amp;quot;lines&amp;quot;:[6,7]},&amp;quot;content&amp;quot;:&amp;quot;人体运动分析&amp;quot;,&amp;quot;children&amp;quot;:[]}]}]},{})&amp;lt;/script&amp;gt;&lt;br /&gt;
&amp;lt;/body&amp;gt;&lt;br /&gt;
&amp;lt;/html&amp;gt;&lt;br /&gt;
= 人体姿态估计 =&lt;br /&gt;
== 二维 ==&lt;br /&gt;
{{文章展开|name=OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields|prefix=动捕小组/计算机视觉|toggled=二维人体姿态估计方法领域的经典文章，提出了多人实时二维姿态估计方法，在计算资源可观的情况下兼具实时性和较高的准确度，在该领域内的相关研究应用中被广泛引用。}}&lt;br /&gt;
{{文章展开|name=BlazePose: On-device Real-time Body Pose Tracking|prefix=动捕小组/计算机视觉|toggled=轻量级二维人体姿态估计经典方法，具有算力资源要求低、准确度高等特点，可部署在笔记本电脑、移动手机等边缘设备上，当下被广泛应用于使用轻量级二维人体姿态估计方法实现各类运动分析的应用中。}}&lt;br /&gt;
== 三维 ==&lt;br /&gt;
{{文章展开|name=3D Human pose estimation in video with temporal convolutions and semi-supervised training|prefix=动捕小组/计算机视觉|toggled=基于单目视频实现三维人体姿态估计的经典方法，文中在时序上对多帧图像的二维人体关键点使用空洞时域卷积，较为准确地估计当前帧的人体姿态；并应用半监督学习的方法，有效利用了不含标签的视频数据训练模型。}}&lt;br /&gt;
= 基于单目视频 =&lt;br /&gt;
== 帕金森患者UPDRS评分预测 ==&lt;br /&gt;
{{文章展开|name=Quantifying Parkinson’s Disease Motor Severity Under Uncertainty Using MDS-UPDRS Videos|prefix=动捕小组/计算机视觉|toggled=本文提出评分混淆矩阵解决不同评分者对同一帕金森病患者的MDS-UPDRS视频有不同评分导致的标签噪声问题，并设计了神经网络模型对输入的MDS-UPDRS视频预测分类其MDS-UPDRS评分，是计算机视觉技术在跟踪评估帕金森患者病重程度方向的实际应用示例。}}&lt;br /&gt;
== 人体运动分析 ==&lt;br /&gt;
{{文章展开|name=Deep neural networks enable quantitative movement analysis using single-camera videos|prefix=动捕小组/计算机视觉|toggled=本文提出的方法使得基于居家或于医院使用普通相机拍摄的单目视频进行人体的量化运动分析成为可能，而不再依赖于深度相机、光学动捕设备等昂贵硬件采集数据，可参考本文中提出的方法流程设计便捷的分析方法开展大规模神经肌肉类疾病患者的量化运动分析。}}&lt;/div&gt;</summary>
		<author><name>Admin</name></author>
	</entry>
</feed>