2025年9月18日,一场聚焦“人工智能前沿”的深度学术讲座在下里巴人大剧院圆满落幕。北京交通大学网络空间安全学院冀振燕教授受邀主讲,以“技术原理 — 演进历程 — 应用场景 — 安全挑战”为脉络,结合Sora视频生成、AlphaGo等热点案例,系统解读人工智能的变革价值与可控管理路径,为同学带来一场兼具专业性与实用性的知识盛宴。

冀振燕教授的学术背景为讲座奠定了高专业度基础:她本科与硕士毕业于合肥工业大学,博士阶段深造于中国科学院软件研究所,曾在挪威科技大学从事博士后研究,并在瑞典Mid Sweden 大学积累八年工作经验,具备国际化视野。自2009年加入北京交通大学以来,她长期深耕AI与网络安全交叉领域,目前主持该校网络空间安全学院工作。本次讲座聚焦计算机视觉、机器人、虚拟现实三大热门方向。
技术解构:从Sora看AI的“优势与短板,追溯发展脉络。进入技术原理与演进历程的解读环节,冀振燕教授以OpenAI 的Sora视频生成技术为核心的案例视频中直观呈现出 AI 的“能力边界”。从Sora的表现来看,AI的能力边界清晰,一方面能生成高度逼真的视频内容,如细致还原动物毛发纹理、雨滴坠落轨迹,展现大模型在“视觉渲染”上的突破;另一方面,视频中“狼崽数量前后不一致”等逻辑缺陷,也暴露大模型“仅依赖数据关联,缺乏因果推理能力”的核心问题。

冀教授指出,数据、算法、算力是支撑AI发展的“三大支柱”。数据需依托算法挖掘价值(如通过历史地震数据预测灾害),算法训练则依赖强大算力(如微软为OpenAI搭建的数万 GPU超级计算机),而算力直接决定 AI 输出质量,16 倍算力支撑下的视频清晰度,远优于基础配置。在追溯 AI 发展历程时,冀教授梳理出清晰脉络:上世纪三四十年代概念萌芽,1950 年 “图灵测试”奠定理论基础,历经逻辑推理、神经网络、深度学习三大阶段,当前已进入“繁荣期,以AlphaGo(围棋领域突破)、无人驾驶(现实场景落地)为代表,AI正加速渗透各行业。
应用全景与风险挑战:AI是“便利工具”,也藏“安全隐患”。冀振燕教授从应用与风险两大维度,全面剖析 AI 的现实影响。在应用场景层面,AI已广泛落地多个领域:计算机视觉助力机器人实现环境感知(如宇树机器人完成灵活舞动动作)、工业质量检测及自动驾驶;虚拟现实推动物理世界与数字世界深度融合,拓展娱乐、教育等领域体验;模式识别领域,语音、人脸识别准确率超 99%,重塑翻译行业(如实时语音翻译);生成式 AI 方面,DALL-E 2 实现“文本生成图像”,语音助手、智能家居已融入日常生活。

以“伦理 + 法律”护航 AI,实现“向善”发展。讲座尾声,冀振燕教授以“双刃剑”为喻,强调 AI 发展需坚守“赋能与可控”的平衡。一方面,AI为生产生活带来显著便利,如智慧教育可定制个性化学习材料;另一方面,必须通过伦理规范(明确技术应用边界)与法律约束(严惩违规行为),引导 AI“向善发展”,防范潜在风险。“人工智能的终极价值,在于服务人类社会进步,而非脱离管控的‘无序创新’。”冀教授的总结,为现场听众理解 AI的“现在与未来”提供了清晰指引,也为行业探索“技术可控”路径提供了重要参考。
应用全景与风险挑战:AI是“便利工具”,也藏“安全隐患”。而在风险层面,AI的安全隐患同样不容忽视。数据安全危机尤为突出:数字时代下,个人信息(位置、消费记录)透明度提升,隐私泄露可能引发骚扰、人身安全威胁,联网设备更易成为黑客攻击目标,当前网络空间安全人才缺口已成为突出瓶颈。信息可靠性风险也需警惕,大模型“幻觉”可能生成虚假内容,虽AI工具通过优化搜索体验提升实用性,但仍需防范错误信息传播。针对这些风险,冀教授提及高校已展开行动,多所院校设立网络空间安全学院,聚焦数据安全与隐私保护研究。