央视兔年春晚《满庭芳·国色》以中国音 、色惊艳观众******
中新网北京1月22日电 (记者 应妮)2023年央视兔年春晚 的《满庭芳·国色》用中国传统色作为切入点 ,以舞为语、以曲为韵 ,桃红 、凝脂、缃叶 、群青等有着优美名字的“中国色”扑面而来,让人沉浸其中。
《满庭芳·国色》用创新视觉呈现方式与节目外化表现形式,突出中国传统美学,以舞为语、以曲为韵 ,形成寻色 、舞色、唱色三个段落为主要结构的艺术作品。娓娓道来 的旋律融入古风吟唱的方式作为“寻色”部分的开篇。“舞色” 的部分作曲家依次选用唢呐 、古筝、二胡 、笛箫 、琵琶五种中国民族乐器 ,与五种颜色、五位顶尖舞者相互对应、配合 ,把管弦乐作为氛围基底,民族打击乐中国大鼓 、梆子作为节奏声部将人间绝色吟之以曲 ,绘之以舞 。最后“唱色”部分更 是巧妙地将若干中国颜色 的名称作为歌词配以具有记忆点的国风旋律,通过用符合当代人审美听觉 的旋律写作、编配方式让整个作品大气厚重 ,也让观众赞不绝口 。
《满庭芳·国色》凝脂 央视兔年《春节联欢晚会》视频截图该作的音乐出自作曲家张渠之手。做既能彰显中国古典文化魅力 ,又符合现代人审美 ,同时不局限于任何一种形式来表达情感 的融合音乐 ,一直 是他 的创作方向。并且通过多年来对国风音乐 的深入理解,将中国特色旋律、节奏、编配方式融入到歌舞中。
从2022年北京冬季奥运会担任开幕式《构建一朵雪花》 的作曲 ,到综艺节目《舞千年》“中秋奇妙游”的《鹤归来兮》,再到河南春晚“元宵奇妙夜”的《元夕之约》 、“清明奇妙游”的《陇上踏歌行》 ,端午期间《王风·采葛》以及《开学第一课》的感人舞蹈《送儿行》,他的作品将舞蹈与中国传统文化相结合 ,给人留下了深刻印象 。2023年央视兔年春晚的《满庭芳·国色》更体现了这一点。
《满庭芳·国色》缃叶 央视兔年《春节联欢晚会》视频截图用中国传统色作为切入点,用中国音乐传播中国文化 。在张渠看来,“我始终认为技巧和手段要服务于表达 ,这次《满庭芳·国色》依然是在创作技巧与动人心魄的旋律间找到了一种平衡 ,来达到用音乐传递中国情感 、用音乐讲述中国故事 ,用音乐传播中国文化 的目的。通过丰富多彩的节奏 、美妙动人 的旋律 ,让观众沉浸于节目之中,感受中华优秀传统文化生生不息的魅力,生发对美好事物、美好生活 的向往和追求。”(完)
向善而生 的AI助盲,让AI多一点,障碍少一点****** 有人说 ,盲人与世界之间 ,相差 的只 是一个黎明 。在浪潮信息研发人员的心中,失去视力的盲人不会陷入永夜,科技的进步正在力图给每一个人以光明未来。 AI助盲在人工智能赛道上一直 是最热门的话题之一。以前,让失明者重见光明依靠 的 是医学 的进步或“奇迹”。而随着以“机器视觉+自然语言理解”为代表的多模态智能技术 的爆发式突破 ,更多的失明者正在借助AI提供 的感知 、理解与交互能力 ,以另一种方式重新“看见世界” 。 新契机:多模态算法或将造福数以亿计失明者 科学实验表明,在人类获取 的外界信息中 ,来自视觉 的占比高达70%~80%,因此基于AI构建机器视觉系统,帮助视障患者拥有对外界环境的视觉感知与视觉理解能力 ,无疑 是最直接有效的解决方案。 一个优秀 的AI助盲技术 ,需要通过智能传感 、智能用户意图推理和智能信息呈现 的系统化发展 ,才能构建信息无障碍 的交互界面。仅仅依靠“一枝独秀”超越人类水平的单模态人工智能比如计算机视觉技术还远远不够 ,以“机器视觉+自然语言理解”为代表 的多模态算法的突破才是正确的新方向和新契机。 多个模态 的交互可以提升AI的感知、理解与交互能力,也为AI理解并帮助残障人士带来了更多可能 。浪潮信息研发人员介绍说,多模态算法在AI助盲领域的应用一旦成熟,将能够造福数以亿计 的失明者。据世卫组织统计,全球至少22亿人视力受损或失明,而我国是世界上盲人最多的国家 ,占世界盲人总数的18%-20%,每年新增 的盲人数量甚至高达45万 。 大挑战 :如何看到盲人“眼中”的千人千面 AI助盲看似简单 ,但多模态算法依然面临重大挑战 。 多模态智能算法 ,营造 的是沉浸式人机交互体验 。在该领域 ,盲人视觉问答任务成为学术界研究AI助盲的起点和核心研究方向之一 ,这项研究已经吸引了全球数以万计的视障患者参与,这些患者们上传自己拍摄的图像数据和相匹配的文本问题,形成了最真实 的模型训练数据集 。 但是在现有技术条件下,盲人视觉问答任务的精度提升面临巨大挑战 :一方面是盲人上传 的问题类型很复杂 ,比如说分辨冰箱里的肉类 、咨询药品的服用说明 、挑选独特颜色的衬衣、介绍书籍内容等等。 另一方面,由于盲人 的特殊性 ,很难提取面前物体 的有效特征 。比如盲人在拍照时 ,经常会产生虚焦的情况,可能上传的照片是模糊 的或者没有拍全 ,或者没拍到关键信息,这就给AI推理增加了难度。 为推动相关研究,来自卡内基梅隆大学等机构的学者们共同构建了一个盲人视觉数据库“VizWiz”,并发起全球多模态视觉问答挑战赛。挑战赛是给定一张盲人拍摄 的图片和问题,然后要求给出相应的答案,解决盲人的求助。 另外,盲人 的视觉问答还会遭遇到噪声干扰 的衍生问题。比如说 ,盲人逛超市,由于商品外观触感相似 ,很容易犯错,他可能会拿起一瓶醋却询问酱油的成分表 ,拿起酸奶却询问牛奶 的保质期等等 。这种噪声干扰往往会导致现有AI模型失效 ,没法给出有效信息。 最后,针对不同盲人患者 的个性化交互服务以及算法自有的反馈闭环机制 ,同样也 是现阶段的研发难点。 多解法:浪潮信息AI助盲靶向消灭痛点 AI助盲哪怕形式百变 ,无一例外都 是消灭痛点,逐光而行 。浪潮信息多模态算法研发团队正在推动多个领域的AI助盲研究 ,只为帮助盲人“看”到愈发精彩的世界 。 在VizWiz官网上公布 的2万份求助中,盲人最多的提问就 是想知道他们面前的是什么东西,很多情况下这些物品没法靠触觉或嗅觉来做出判断,例如 “这本书书名是什么 ?”为此研发团队在双流多模态锚点对齐模型的基础上 ,提出了自监督旋转多模态模型,通过自动修正图像角度及字符语义增强,结合光学字符检测识别技术解决“ 是什么” 的问题 。 盲人所拍摄图片模糊、有效信息少?研发团队提出了答案驱动视觉定位与大模型图文匹配结合 的算法,并提出多阶段交叉训练策略 ,具备更充分 的常识能力 ,低质量图像 、残缺 的信息,依然能够精准的解答用户的求助。 目前浪潮信息研发团队在盲人视觉问答任务VizWiz-VQA上算法精度已领先人类表现9.5个百分点 ,在AI助盲领域斩获世界冠军两项、亚军两项 。 真实场景中 的盲人在口述时往往会有口误 、歧义 、修辞等噪声。为此 ,研发团队首次提出视觉定位文本去噪推理任务FREC,FREC提供3万图片和超过25万 的文本标注,囊括了口误 、歧义 、主观偏差等多种噪声,还提供噪声纠错 、含噪证据等可解释标签 。同时 ,该团队还构建了首个可解释去噪视觉定位模型FCTR,噪声文本描述条件下精度较传统模型提升11个百分点。上述研究成果已发表于ACM Multimedia 2022会议,该会议为国际多媒体领域最顶级会议 、也 是该领域唯一CCF推荐A类国际会议 。 在智能交互研究方面上,浪潮信息研发团队构建了可解释智能体视觉交互问答任务AI-VQA ,同时给出首个智能体交互行为理解算法模型ARE。该研究成果已发表于ACM Multimedia 2022会议。该研究项目 的底层技术未来可广泛应用于AI医疗诊断、故事续写、剧情推理、危情告警、智能政务等多模态交互推理场景。 眼球虽然对温度并不敏感,但浪潮信息 的研发团队 ,却在努力让盲人能“看”到科技的温度 ,也希望吸引更多人一起推动人工智能技术在AI助盲、AI反诈 、AI诊疗、AI灾情预警等更多场景中 的落地。有AI无碍 ,跨越山海 。科技 的伟大之处不仅仅在于改变世界,更重要的 是如何造福人类,让更多 的不可能变成可能 。当科技成为人的延伸 ,当AI充满人性光辉 ,我们终将在瞬息万变的科技浪潮中感受到更加细腻温柔的善意 ,见证着更加光明宏大 的远方。 中国网客户端 国家重点新闻网站,9语种权威发布 |