全球6G技术与产业生态大会 | 高通徐晧:6G系统将为机器人研究与应用提供推动作用

来源:高通 #高通# #6G# #技术与产业生态#
1322

4月21日至23日,由未来移动通信论坛、紫金山实验室共同主办的2026全球6G技术与产业生态大会在南京举行。大会汇聚全球知名的科研机构、行业组织、技术企业的学者与专家,围绕6G前沿技术突破、产业生态构建与应用场景探索展开讨论。在大会首日举行的平行会议“AI原生与自主6G系统”上,高通公司全球副总裁、中国区研发负责人、IEEE Fellow徐晧发表了题为《AI原生的6G系统:技术设计与创新应用》的主题演讲。

图为高通公司全球副总裁、中国区研发负责人、IEEE Fellow徐晧在2026全球6G技术与产业大会平行会议发表主题演讲

徐晧认为,从3G到6G,每一代移动技术的演进,都会不断涌现全新的应用场景,持续推动技术向前发展,而在5G向6G演进的阶段,一个重要的发展方向是智能终端应用的增加。目前5G的应用中,已经包含手表、手机、新能源汽车、扩展现实(XR)眼镜等终端。而发展到6G阶段,更多的则是人工智能、具身智能和机器人技术的发展。

徐晧表示,新技术的出现对用户的生活方式和交互方式具有深远的影响。如今,更多的AI智能体正在端侧落地。在高通看来,AI是新的UI(交互界面),能够同时理解和处理语音、图像、视频等多种输入形式,并通过大语言模型驱动AI智能体,支撑丰富多样的应用场景。

随着端侧AI应用的增多,对无线网络的需求将会显著增加。徐晧谈到,“我们未来的流量需求可能会是现在的3到7倍,而且这里面有超过30%都是由AI驱动。”徐晧也就如何应对6G流量需求分享了他的看法,一是频谱向更高频段延展,同时高通也在研究多种技术,希望做到在低频增强覆盖,在中频和高频增强热点流量和信道容量。

谈及机器人,徐晧提到,尽管现阶段机器人尚未深入千家万户,也无法完成很多日常工作,但如果将其类比智能驾驶辅助的发展可以看到,十多年前,没有多少人相信它能够自主地、一定程度上取代人类驾驶;但如今,我们看到在部分应用场景中已经可以实现较长时间的连续自主运行。

徐晧从技术层面具体介绍到,“现在自动驾驶只是2D的AI环境。如果要实现机器人在物理世界中的应用,需要机器人能够有对整个物理世界有所理解,并且能够在3D空间中与人交互。像是现在这种通过6G系统,通过仿真和传感打造的一个精准的3D物理世界,也会对机器人的研究和应用有非常好的推动作用。”

此外,徐晧还介绍了高通在6G领域的其他多项研究及进展,包括在6G中实现更大规模的天线阵列,研究通信与传感的深度融合以更好地服务人工智能应用,以及围绕感知开展的一系列工作,例如面向低空经济的无人机感知等。。

以下为徐晧发言实录

很高兴和大家分享,从高通的角度如何看待 6G 和人工智能(AI)的结合。

如果我们回顾从 3G 到 6G 的发展,除了技术本身的演进以外,很重要的一点是不断涌现的全新应用场景,在持续推动技术向前发展。从3G发展到4G,我们从最初使用电子邮件通信,到后来语音传输、视频传输;发展到4G、5G时代,视频直播等应用已经非常普遍。在5G向6G演进的阶段,一个重要的发展方向是智能终端应用的增加。目前5G的应用中,已经包含手表、手机、新能源汽车、扩展现实(XR)眼镜等终端。而发展到6G阶段,更多的则是人工智能、具身智能和机器人技术的发展。我将会具体阐述,这些应用对6G的规划与设计会产生哪些深远影响。

首先,我们看到了“智能计算无处不在”的趋势,越来越多的智能终端和智能体正在落地端侧应用。以高通为例,一方面我们与国内的OEM厂商合作,推动终端侧AI的落地;另一方面,我们也打造了首款AI PC,将AI算法应用在个人电脑中。大家近期应该听说过很多关于“养龙虾”的话题,这些是在PC端打造的AI智能工具,能够快速提高工作效率,在国外的开源社区也得到了非常广泛的应用。自动驾驶领域也有类似应用,目前的新能源汽车都可以实现直接语音交互,来进行调整空调、播放音乐等操作,这些功能现在已经成了所有新能源汽车的标配。

扩展现实(XR)也是现在日渐普及的应用,而且正快速从以前的虚拟现实(VR)眼镜,向现在的增强现实(AR)眼镜转变。现在的产品可以实现许多应用,例如两个佩戴智能眼镜的用户相互交流时,对话可以以文字的形式,直接在镜片上呈现出来,实时翻译和转写功能已经非常成熟。最近几年,诸如此类的应用的数量还会持续增加。稍后我会重点介绍工业物联网,也就是机器人产业的相关应用,以及我们在端侧和边缘侧的规划。

首先非常重要的一点是,新技术的出现对用户的生活方式和交互方式具有深远的影响。第一代智能手机问世后,我们从基础的语音通话拓展到在手机上查看邮件,在网络上搜索所需信息。如今,更多的AI智能体在端侧落地。我们也看到,近几年各类边缘侧智能终端也在不断涌现。以目前的应用现状来看,很多人认为,现阶段机器人尚未深入千家万户,也无法完成很多日常工作。有一个很好的类比就是智能驾驶辅助。十年前,没有多少人相信它能够非常自主地、(一定程度上)取代人类的驾驶;但是十年后,我们已经看到一些用户(甚至可以在)在完全不接手的情况下,从美国的西海岸到东海岸自动驾驶过去。

从AI的角度来看,车的本质是对二维空间的运用,而且对自动驾驶来说,最重要的是确保安全,并在设定的交通规则下行驶。对于机器人来说会更复杂,因为机器人要面对的是三维的空间,同时还需要跟人交互。对于车而言,最重要的目的是,在一个二维空间中不要撞到人以及周围的障碍;但是机器人要在三维空间中直接跟人交互。稍后我也会分享,比如通过6G的通感等技术,可以帮我们更好的打造物理空间的AI技术。

我们经常提到的一个概念就是——AI是新的UI。这是因为现在的AI是一个多模态的模型,可以把我们的语音、图片、视频等形式的内容输入到AI智能体中,然后通过大语言模型来支持做一系列的应用。

随着在端侧AI应用的增多,对无线网络的需求将会显著增加。当前业界经常讨论,可能5G的利用率还不够高,或者说对于5G的需求没有那么大。但在今后的四五年,直至6G到来之前,我们会看到大量智能终端产生的需求,会产生更多的数据和流量。

这到底会产生多大的影响?一个很重要的方向是,当6G普及时,我们已经拥有智能手机、智能手表,以及XR等各类终端,我们需要打造的不仅是单一设备与网络一对一的连接,而是将这些终端设备整合在一起并进行统一的规划。举例来说,最节约资源的连接方式是,通过我的手表连接手机,或者AR眼镜连接手机,在这三个端侧同时进行规划,以实现更好的6G连接体验,以及更合理的算力分配。因此,我们看到在6G的设计中,需要考虑到多个终端的连接,以及多个终端之间的算力资源分配。

AI应用会对网络产生怎样的算力需求?我想再分享几个例子。第一个例子是个人AI助理,比如你戴着AI眼镜去购物,AI眼镜能够自动调用网络资源,帮你对比产品的线上与线下价格,以及为你提供更多的选项。它还可以通过家中的物联网摄像头,分析家中需要购买的东西等等。如果想要实现这样的应用,就需要知道它在下行以及上行需要的流量,以及时延是多少。另一个例子是现在更为常见的应用,即“见我所见(See What I See)”,是指能够把看到的内容实时上传到网上,这对于视频直播来说有很大的价值,这类内容的普及也需要有方便简洁的AR眼镜来支持。

如果有这样的AR眼镜,能够实时地把你看到的东西传到网上,第一,这对直播是很有帮助的。你拿着手机,或架着手机直播很不方便,对吧?但是如果你用上摄像头,或者是这样的AR眼镜,就会方便很多。第二,在你旅游的时候,可以随时把你看到的场景分享给你的家人和朋友。针对这样一款APP,我们对它所需的上下行流量以及时延都做了深入的研究。第三,这也可以为虚拟形象通话(Avatar calling)提供帮助。当你不能去某些场所,像今天的演讲,如果你不能到场,你会有个虚拟形象帮你做这个演讲。此外,在个性化体验方面,比如在更好的在自动驾驶模式下,可以直接在你的挡风玻璃上显示出前面的路况和你应该走的方向。

所以,保守估计在6G时代,我们未来的流量需求可能会是现在的3到7倍,而且这里面有超过30%都是由AI生成产生的。大家知道,现在的通信流量大多覆盖的是人与人之间的交互;但未来随着AI需求的越来越多,6G网络的能力肯定需要一个巨大的提升。

那么怎么解决6G的流量需求?第一个很简单的方法就是把频谱往更高的频段提升。我们知道在5G时代,我们有FR1和FR2,一个是6G以下的频谱,一个是毫米波的频谱。在6G时代,我们会引入一个中高频的频谱,国内我们考虑最多的是U6G的频谱,北美可能更多考虑7GHz的频谱。

我们也在研究各种技术,希望做到在提高频谱的同时,也能尽量增强信号覆盖。我们在低频增强覆盖,在中频和高频增强热点流量和信道容量。下面我会举几个我们正在做的跟6G有关的原型机设计的例子,讲讲我们怎么把AI、传感这些技术实现到网络里。

第一个是我们已经做了两三年的Giga MIMO,这是一个重要的研究方向,就是在6G中实现更大规模的天线阵列。我们用到一个很重要的技术——全双工,因为基站做感知时,要一边发送信号,一边回收信号,要想同时做到发送和回收必须用到全双工技术。当然你也可以做双基地雷达(Bistatic radar),让更多的基站和手机协同工作,但会比单基地雷达(Monostatic radar)方式更复杂一些。所以,我们认为这是6G感知中一个非常重要的技术。

另外,我们也在研究怎样把传感和通信结合起来,以此提供更好的人工智能支持。刚才前面的嘉宾也提到过,做AI时我们面临的一个问题是,可能没有那么多的无线通信实际数据可以用来训练人工智能系统。我们的解决方案是,重建一个3D模型给AI提供仿真环境和更多数据,那么这其中很关键的一点,在提供数据之后,如何判断这个AI是不是能够在真正的网络中正常运行?我们做了一系列工作,比如端侧适配(on-device adaptation)或端侧训练(on-device training)。也就是说,当我们在仿真环境中做好了AI系统,在实际网络应用中,还会根据测量的结果做一些适配或者在手机上进行自适应训练,这样可以让整个系统更加鲁棒。

另外一个工作是跟感知有关的,比如国内关注度很高的低空经济。在无人机数量增多的情况下,空中实际没有像地面上那种受红绿灯控制的道路,我们该如何做到更好的无人机管控呢?通过无线系统来做无人机感知,是一个很重要的研究方向。

在刚才提到的系统里,我们用全双工基站来做无人机感知。另外还有一点很重要,就是我们要怎么打造一个网络,把通信、感知和AI都结合在一起。这里有一个比较好的例子:当我们做毫米波网络规划时,即使拿到了3D地图,还是不一定知道环境细节,但如果我们通过感知方式,测到信号的反射系数,由此倒推,我们就能知道每个建筑的材料是什么。

用这样的方式,我们可以打造一个非常精准的、面向无线系统AI的环境。这是一个把感知、通信、毫米波和AI都结合在一起的演示场景。如果把上述的这一切都考虑在 6G 的设计中,那么我们不光能够打造一个能够支持更高流量、更高速率、更好覆盖的6G网络,而且这个网络还能够通过感知对于周围的环境有实时的了解。有了这样的一个实时的数字孪生(digital twin)的环境,一方面可以对我们的AI和通信系统提供优化的指导意义。

比如说,在仿真环境中和OTA的测试中,我们也做了一些实验,比如双边的信道状态信息反馈(CSF),也叫双边two-sided CSF,也就是基站和手机共同用 AI模型来做信息反馈?再比如说,对波束管理的直接预测,如果测量到一个毫米波的宽波束,怎样预测最优的窄波方向?

这一系列的可能性不光会对通信有帮助,如果我们能够打造这样一个非常逼真的3D环境,对于今后的自动驾驶以及机器人的应用也会有非常好的指导意义。因为,现在自动驾驶只是2D的AI环境。如果要实现机器人在物理世界中的应用,需要机器人能够有对整个物理世界有所理解,并且能够在3D空间中与人交互。像是现在这种通过6G系统,通过仿真和传感打造的一个精准的3D物理世界,也会对机器人的研究和应用有非常好的推动作用。

以上介绍的是高通正在探索的一些6G方向,在三月份刚刚过去的巴展上,我们有更多对6G各个方面的演示和视频,不光是物理层AI,还有感知方面的内容。欢迎大家有机会跟我们有更多的合作,共同推动6G的发展,谢谢。

责编: 爱集微
来源:高通 #高通# #6G# #技术与产业生态#
THE END
关闭
加载

PDF 加载中...