行人检测作为计算机视觉L域基本的主题之一,多年来被广泛研究。尽管先进的行人检测器已在无遮挡行人上取得了超过 90% 的准确率,但在严重遮挡行人检测上依然无法达到满意的效果。究其根源,主要存在以下两个难点:
严重遮挡的行人框大部分为背景,检测器难以将其与背景类别区分;
给定一个遮挡行人框,检测器无法得到可见区域的信息;
Tube Feature Aggregation Network(TFAN)新方法,即利用时序信息来辅助当前帧的遮挡行人检测,目前该方法已在 Caltech 和 NightOwls 两个数据集取得了业界L先的准确率。
核心思路
利用时序信息辅助当前帧遮挡行人检测
目前大部分行人检测工作都集中于静态图像检测,但在实际车路环境中大部分目标都处于运动状态。针对严重遮挡行人的复杂场景,单帧图像难以提供足够有效的信息。为了优化遮挡场景下行人的识别,地平线团队提出通过相邻帧寻找无遮挡或少遮挡目标,对当前图像中的遮挡行人识别进行辅助检测。
实验新方法
Proposal tube 解决严重遮挡行人检测
如下图,给定一个视频序列,先对每帧图像提取特征并使用 RPN(Region Proposal Network)网络生成 proposal 框。从当前帧的某个 proposal 框出发,依次在相邻帧的空间邻域内寻找相似的proposal框并连接成 proposal tube。

根据各种指法的具体特点,对时频网格图、时域网格图、频域网格图划分出若干个不同的计算区域,并以每个计算区域的均值与标准差作为指法自动识别的特征使用,用于基于机器学习方法的指法自动识别
新加坡国立大学NExT中心的王翔博士分析了知识图谱在个性化推荐领域的应用背景,并详细介绍了课题组在个性化推荐中的相关研究技术和进展,包括基于路径、基于表征学习、基于图神经网络等知识图谱在推荐系统中的融合技术
新一代移动端深度学习推理框架TNN,通过底层技术优化实现在多个不同平台的轻量部署落地,性能优异、简单易用。腾讯方面称,基于TNN,开发者能够轻松将深度学习算法移植到手机端高效的执行,开发出人工智能 App,真正将 AI 带到指尖
达摩院金榕教授介绍了语音、自然语言处理、计算机视觉三大核心AI技术的关键进展,并就AI技术在在实际应用中的关键挑战,以及达摩院应对挑战的创新实践进行了解读
2020年5月底OpenAI发布了有史以来最强的NLP预训练模型GPT-3,最大的GPT-3模型参数达到了1750亿个参数
解决了传统图卷积神经网络中图节点学习到的特征对图分辨率和连接关系敏感的问题,可以实现在低分辨率的三维形状上学习特征,在高低分辨率形状之上进行测试,并且保持不同分辨率特征的一致性
外卖履约时间预估模型,预估的是从用户下单开始到骑手将餐品送达用户手中所花的时间
记忆增强的图神经网络对短期的商品语境信息建模,并使用共享的记忆网络来捕捉商品之间的长期依赖,对多个模型进行了对比,在Top-K序列推荐中效果极佳
马库斯系统性地阐述了对当前AI研究界的批判,从认识科学领域中针对性地给出了11条可执行的建议
MIS 和RMIS触觉传感器最常用的传感原理是基于电气的传感器。这些触觉传感器进一步分为压阻型、压电型和电容型传感器
应用于MIS的触觉传感器主要是基于电学或光学原理开发的,应该是小尺寸和圆柱形的,可在导管的管身或尖端集成
非接触式检测平台FluSense由麦克风阵列和热成像摄像机组成,用于捕捉不同的候诊室人群行为,包括咳嗽和语言活动以及候诊室病人数量