科学家利用WiFi信号跟踪人类动作以服务元宇宙
新加坡南洋理工大学的科研团队最近公布了一种新方法,用于在元宇宙中追踪人类运动。
元宇宙的一个关键特性是能够实时在数字世界中表现真实世界中的物体和人物。在虚拟现实中,例如,用户可以转动头部来改变他们的视角,或者通过在现实中操控物理控制器来影响数字环境。
目前,在元宇宙中捕捉人类活动的现状是使用基于设备的传感器、摄像头或两者的组合。然而,正如研究人员在他们提前印刷的研究论文中所写,这两种方式都有直接的局限性。
相关: Elon Musk 对 Sam Altman 和 OpenAI 的协议违约提起诉讼
相关: Elon Musk 对 Sam Altman 和 OpenAI 的协议违约提起诉讼一个基于设备的感知系统,比如带有运动传感器的手持控制器,“只捕捉人体一个点的信息,因此无法模拟非常复杂的活动,”研究人员写道。同时,基于摄像头的跟踪系统在低光环境和物理遮挡方面有困难。
WiFi感应登场
科学家们已经使用了多年WiFi传感器来追踪人类运动。与雷达类似,用于发送和接收WiFi数据时所用的无线电信号可以用作感知空间中的物体。
WiFi传感器可以经过微调来捕捉心跳、追踪呼吸和睡眠模式,甚至能透过墙壁感知人。
元宇宙研究人员过去尝试将传统的跟踪方法与WiFi感应结合起来,取得不同程度的成功。
人工智能介入
WiFi跟踪需要使用人工智能模型。不幸的是,对研究人员来说,训练这些模型已经证明具有很高的难度。
根据新加坡团队论文中的描述:
为了训练实验所必需的模型,科学家必须建立一个训练数据集。取决于特定模型的目标,用于训练AI的数据集可能包含数千甚至数百万个数据点。
通常,标注这些数据集是进行这些实验中最耗时的工作。
MaskFi亮相
The team from Nanyang Technological University built “MaskFi” to overcome this challenge. It uses AI models built using a method called “unsupervised learning.”
In the unsupervised learning paradigm, an AI model is pretrained on a significantly smaller data set and then put through iterations until it’s able to predict output states with a satisfactory level of accuracy. This allows researchers to focus their energy on the models themselves instead of the painstaking effort it takes to build robust training data sets.

According to the researchers, the MaskFi system achieved about 97% accuracy across two related benchmarks. This indicates that this system could, through future development, serve as the catalyst for an entirely new metaverse modality: a metaverse that can provide a 1:1 real-world representation in real-time.