弄点变态的挑战了。1、这次对华为问界新M7同时说出7个命令:打开空调 设置24度 风量调到最大 打开车窗 打开遮阳帘 打开座椅通风 打开座椅按摩。看上面的显示,全部都识别无误,也都执行了(之前已经有的状态保持不变)。命令全部都执行了,但是又加了句“当前车辆还没这个功能呢”……估计系统也有些不确定,头次遇到这么个话痨,这么多命令是否都顺利执行了,反正加一句有备无患……2、然后在它执行一个比较长的命令,比如导航地图,选择方案,在这个还没结束的时候,我又补加了命令,打开空调,也顺利执行了。3、在风量最大,车内嗡嗡风声很嘈杂的时候,也能准确识别我说的话,“风量调到中等”这个命令可能没识别出意思,所以没听明白,其他的命令都快速执行了。感觉这样的人机交互,应该达到了当前的巅峰水平了,足够人们日常使用了。接下来就应该是人工智能GPT之类的上场了,可以理解人类的自然语意,了解有些话语或者情绪的隐藏含义,可以做一些更深层的交流沟通了。比如@CarEngineer何先生 ,他说今天有点脚痒,老婆不在家。系统就能自动导航到他想去的地方了……