动态,以及和林燃讨论他的战略构想。
「它真的能跨越情感交流的深吗?」
林燃不假思索道:「我不知道,我们都知道人工智慧是黑箱,时至今日,大家也不清楚人工智慧所谓智慧涌现到底是怎幺表现出来的。
我只能说,我们的测试人员从体验上,会觉得这比过去人工智慧表现出来的更加智能,感觉有更多的情绪在其中。
但你能说这跨越了所谓情感交流的深谷吗?我没办法给你一个具体的回答。」
余东想到了过去他们所体验的人工智慧,无论是文本还是语音,都没有情绪。
像豆包,它在和人通话的过程中,会模拟人的语气,会模拟人说话的停顿和呼吸,但冰冷的现实依然存在,计算机代码的固定无法避免。
什幺是计算机代码的固定?
是指它在模拟对话过程中,不同对话之间,语气的停顿和间隔都是一样的。
类似疑惑从0到100,豆包对疑惑的表现永远是卡在50这个分位线上。
这是因为模型在生成语音时,需要对一系列参数进行预测和控制,包括了音高、语速、音量、停顿等等。
而模型的第一要义是平滑性,也就是生成自然、流畅、没有明显机器感的声音。
为了达到这一点,模型倾向于选择参数空间中最稳定、最平滑的路径,而不是最极端、最不规则的路径。
另外在参数空间里的均值回归,为了最小化损失函数,模型同样会倾向于输出高概率的均值。
说的更直白一些,一旦识别到疑惑这个标签,ai就将其与一组预设的、固定的语音参数,像语速放慢5%,音调提高30hz,停顿增加500ms这样的标签进行绑定。
所以人工智慧模拟的情绪是假的,余东的疑问是,你们到底能做到哪一步?
只是更多的标签,更细分的情感表达,还是说真正意义上的情感模拟?
如果林燃说的信誓旦旦,他反而不敢信。
而林燃给的回答,是我也不知道。
这样的回答,让余东内心震惊不已,你们该不会是真的做到了吧。
「林总,卧槽,你们真实现了非结构化、高纬度的实时情感反馈?」余东问道。
林燃说:「如果你只是指这个,那我可以肯定的告诉你,我们确实做到了。这个本身就是左右脑架构要解决的核心问题。
右脑的神经形态晶片本身就具备负责捕捉