虽然已经有人工智能系统可以生成与城市街道(和其他地方)的无声图像相匹配的声音效果,但一项实验性的新技术却恰恰相反。 它生成的图像与街道上的录音相匹配,准确度高得惊人。声音到图像扩散模型"由德克萨斯大学奥斯汀分校的康宇豪副教授及其同事开发,并在一个包含 10 秒钟视听片段的数据集上进行了训练。
这些片段由静态图像和环境声音组成,取自 YouTube 上的北美、亚洲和欧洲的城市和乡村街道视频。 利用深度学习算法,该系统不仅学会了哪些声音与图像中的哪些项目相对应,还学会了哪些声音质量与哪些视觉环境相对应。
训练完成后,该系统的任务是仅根据 100 个其他街景视频录制的环境声音生成图像,每个视频生成一张图像。
人工智能生成的部分街道图像与实际街道视频剧照的对比示例 图/德克萨斯大学奥斯汀分校
随后,一个人类评委小组在聆听图像所依据的视频背景音乐的同时,向他们展示了每张图像以及两张生成的其他街道图像。 当他们被要求识别三幅图像中哪一幅与配乐相对应时,他们的平均准确率达到了 80%。
更重要的是,在对生成的图像进行计算机分析时,发现它们与原始视频中开阔天空、绿色植物和建筑物的相对比例"密切相关"。
事实上,在许多情况下,生成的图像还反映了原始视频的光照条件,如晴天、阴天或夜晚。 这可能是由于夜间交通噪音减少或夜间昆虫的叫声等因素造成的。
虽然这项技术可以应用于法医领域,比如大致了解录音的地点,但这项研究的目的更多的是探索声音是如何影响我们的场所感的。
科学家们在最近发表于《自然》(Nature) 期刊上的一篇论文中指出:"研究结果可能会增强我们对视觉和听觉感知对人类心理健康影响的认识,可能会指导城市设计实践中的场所营造,还可能会提高社区的整体生活质量。"
了解更多:德克萨斯大学奥斯汀分校