麻省理工学院正在制造一种可以“听到”你无声说出的话的设备
麻省理工学院的学生创造了一种名为AlterEgo的原型设备,它可以识别你在无声自言自语时说出的单词,然后根据它认为你在说什么采取行动。
麻省理工学院媒体实验室是麻省理工学院的一个部门,专注于人与技术的交叉点。该论文的作者阿尔纳夫·卡普尔是该实验室的硕士生,他强调说,该设备不会读取想法或碰巧在你脑海中闪过的随机、飘忽不定的单词。“你完全沉默,但在自言自语,”他说。“它既不是思考,也不是说话。这是介于两者之间的一个甜蜜点,既是自愿的,也是私人的。我们捕捉到了这一点。”
目前存在的原型系统看起来像电话销售人员可能会戴的白色耳机。但它不是在嘴唇前盘旋的麦克风,而是粘在面部和颈部,在那里,一把电极会接收到微小的电信号,这些电信号是由你无声自言自语时发生的细微内部肌肉运动产生的。该设备通过蓝牙连接到计算机,然后计算机与服务器通信,服务器会解释信号,以确定佩戴者在表达什么单词。
它还处于原型阶段,尽管它代表着对常规的一种迷人的背离。我们最常通过触摸设备来与它们互动——在智能手机上打字、按下应用程序,或者双击苹果AirPods的侧面来暂停或播放音乐。或者,我们通过使用Siri、Alexa或谷歌助手等数字助手与我们的小工具或智能扬声器交谈。这些服务对你的要求比对自己无声说话更多。换句话说:这种技术就像让一个简单版本的Siri听到你无声的低语。
这一切的目标是什么?卡普尔说,进一步“将人类和计算机结合起来”。我们与计算机的互动越紧密,我们就越能利用它们的优势——比如快速获得数学问题或翻译方面的帮助——而不必从工作中抬头点击、点击或打字。
或者用户可以简单地改变Roku上的频道——那些遥控器太小了,很容易丢失!-完全安静。AlterEgo似乎对残疾人或瘫痪者也很有希望。但是卡普尔说他们还没有能够研究这个应用程序。
可以肯定的是,这项技术仍处于早期阶段,因此每个应用程序只能学习大约20个不同的单词。该系统无法理解一个人说的每一个单词——只是它被教过的单词。卡普尔说,故意自言自语,但不要大声说出来,这是一种很容易学习的练习。当训练某人使用它时,他们首先要求他们大声朗读一段话。“之后,我们要求他们不要在阅读时发出单词,”他说。“这比大声说出来更舒服。”
为了构建这个系统,卡普尔使用了一种叫做神经网络的通用人工智能工具,它可以从数据输入中学习。他们训练神经网络来识别不同的电信号如何对应一个人可以对自己说的不同的话。
虽然很容易看到这种设备的军事应用——佐治亚理工学院计算学院的教授萨德·斯塔纳在麻省理工学院网站上的一份声明中说,他可以设想使用这种设备的“特殊行动”——但卡普尔说,这不是他们对该系统的预期目标。
他说:“这更多的是关于我们如何弥合计算机和人类之间的差距。”理想的情况是,人们可以流畅、实时地利用人工智能系统的智能来增强自己。
下一步:处理设备的形式,所以它有点“更不可见”这一切都是关于无缝集成的——所以理想情况下,未来的版本看起来不会像电话销售人员的耳机。
麻省理工学院正在制造一种可以“听到”你无声说出的话的设备