> **来源:[研报客](https://pc.yanbaoke.cn)** # 人工智能—历史、现状和未来总结 ## 核心内容 人工智能(AI)自1956年达特茅斯会议首次提出以来,经历了多次起伏,最终进入大模型时代。当前,AI在算力基础设施、数据应用、应用场景等方面取得了显著进展,成为推动国家经济发展的关键因素。随着“东数西算”工程和国家政策的引导,AI正朝着更广泛的应用和更强大的算力支持方向发展。 ## 主要观点 - **历史发展**:AI经历了三起两落,从早期的专家系统到如今的大模型技术,每一次技术突破都推动了AI的发展。 - **大模型时代**:以Transformer结构为代表的大模型技术开启了AI的新篇章,如GPT系列、Llama系列等,显示出强大的学习和生成能力。 - **算力基础设施**:算力已成为AI发展的核心支撑,国家和地方均在积极推动算力中心建设,以满足AI技术不断增长的需求。 - **数据为王**:数据是AI模型训练和优化的基础,低空感知平台等数据采集技术正在推动AI向更广泛的应用场景扩展。 - **应用场景广泛**:AI已广泛应用于广告设计、教学设计、产品设计、音乐创作、自然语言处理等多个领域。 - **算力需求与国产化**:AI训练和推理对算力需求巨大,但国产化率低,美国的出口管制进一步推动了国产AI芯片的发展。 ## 关键信息 ### 人工智能发展史 - **达特茅斯会议(1956)**:首次正式提出人工智能概念。 - **黄金时代(1956—1974)**:专家系统和神经网络技术开始兴起。 - **第一次寒冬(1974—1980)**:由于计算能力有限和缺乏数据,AI发展陷入停滞。 - **稳健发展期(1993—2015)**:AI在多个领域逐步成熟,如国际象棋和图像识别。 - **新时代(2016—至今)**:大模型技术如GPT、Llama、Sora等推动AI进入新阶段。 ### 大模型发展简史 - **萌芽期(1950-2005)**:以CNN为代表的传统神经网络模型阶段。 - **探索沉淀期(2006-2019)**:以Transformer为代表的全新神经网络模型阶段。 - **迅猛发展期(2020-至今)**:以GPT为代表的预训练大模型阶段。 ### 国内外最新模型 - **Midjourney**:生成高质量图像,对设计行业造成冲击。 - **Sora**:文本视频生成大模型,展现创建现实和富有想象力场景的能力。 - **GPT-4**:参数量达到100万亿,支持多模态输入,成为跨时代里程碑。 ### 算力基础设施 - **国家层面**:2022年“东数西算”工程启动,推动算力统筹布局。 - **省份层面**:上海、江苏、广东等省份算力规模领先,全国占比超过45%。 - **企业层面**:中国移动、中国电信、中国联通等运营商拥有庞大的算力资源。 - **高校层面**:北京大学“未名一号”、上海交通大学“思源一号”等高校算力平台支撑大量科研项目。 ### 算力需求分析 - **小模型训练与推理**:需要一定的算力支持,如2560 TFLOPS FP16算力,训练时间为7天左右。 - **大模型训练与微调**:算力需求大、时间长、成本高,如GPT-3需要2046 A100 GPU进行训练。 - **不同层面的算力需求**:国家、省份、企业、高校、学部和课题组在算力需求上各有不同。 ### 国产AI芯片发展 - **华为昇腾910**:FP16算力达到376 TFLOPS,与英伟达A100 80GB版本相当。 - **国产芯片对比**:华为、寒武纪、昆仑芯、摩尔线程等国产芯片在性能、显存带宽和功耗等方面逐步接近国际先进水平。 ### 国家政策支持 - **“东数西算”工程**:推动全国算力统筹布局,建设国家算力枢纽和数据中心集群。 - **《算力基础设施高质量发展行动计划》**:计划到2025年算力规模超过300 EFLOPS,智能算力占比达到35%。 - **AI产业政策**:多个省市出台政策支持AI产业发展,如北京、杭州、成都、安徽、上海、广东等。 ## 未来展望 随着算力基础设施的完善和大模型技术的不断进步,人工智能将在更多领域发挥重要作用。国家政策的引导和国产芯片的发展,将为AI产业的可持续发展提供有力支撑。未来,AI将更加智能化、普及化,成为推动社会进步和经济发展的关键力量。