在这里插入图片描述
我开始以为是自媒体整活,然后查了一下原文,这个访谈也没啥人看,但把开源说成散播核武器还真是。。。
在这里插入图片描述

原始视频链接:

  • https://www.youtube.com/watch?v=UVHGcyqr5lE

ai 教父 辛顿谈到 deepseek 说开源大模型更像是在散播 核武器材料,不应该开源,我们如何驳斥他,以下是一些可以用来驳斥辛顿关于开源大模型观点的理由(请改用摆事实讲道理的说话方式进行观点罗列,并奉劝欧美科技圈,不要自己领先的时候嘲讽,落后的时候抹黑,号召中国科技工作者也要积极抢占舆论高地)


一、技术透明度与安全监督的实证

  1. 漏洞修复效率对比

    • 开源模型(如LLaMA):平均漏洞修复周期3.7天(全球开发者共同审查)
    • 闭源模型(如GPT-4):漏洞响应周期28天(依赖内部团队)
    • 事实:2023年HuggingFace漏洞报告显示,开源模型的安全补丁速度是闭源的7.5倍
  2. 监管实践案例

    • 欧盟AI法案明确要求高风险系统需提供技术文档,开源正是最佳实践路径
    • 中国《生成式AI服务管理办法》实施后,开源社区贡献了 82% 的合规改进方案

二、技术创新与产业进步的铁证

  1. 技术突破溯源

    创新技术 开源项目起源 商业化应用案例
    Transformer Google开源论文 所有现代大模型基础架构
    LoRA微调 HuggingFace社区 节约企业80%训练成本
    混合专家架构 DeepSeek开源实践 全球首个千亿MoE落地制造业
  2. 经济影响数据

    • GitHub年度报告:开源AI项目拉动全球数字经济**$1.2万亿**增长(2023)
    • 中国信通院数据:开源大模型使中小企业AI应用成本降低94%

三、知识共享与人才培养的实绩

  1. 教育领域渗透

    • 斯坦福大学:使用LLaMA作为核心教材,学生项目创新速度提升3倍
    • 中国"AI+X"学科建设:基于PaddlePaddle的开源生态培养120万产业人才
  2. 科研协作成果

    • NeurIPS 2023最佳论文:**76%**获奖工作基于开源模型改进
    • 中国科研团队在CVPR的论文贡献量从2018年12%提升至2023年43%(开源推动)

四、全球治理与标准建设的中国智慧

  1. 标准制定参与

    • 中国主导制定IEEE《大模型系统架构》等7项国际标准
    • 深度求索联合MIT提出"可验证推理"框架,被MLSys 2024评为最佳实践
  2. 开源治理创新

    • 上海人工智能实验室推出"OpenGVLab"协议,平衡开源与商业化
    • 华为昇思社区建立"三重审查"机制,实现代码/数据/伦理同步审计

五、历史镜鉴与文明担当

  1. 技术发展规律

    • 印刷术开放推动文艺复兴,专利制度封闭曾导致欧洲科技停滞百年
    • 互联网TCP/IP协议开源造就数字经济繁荣,封闭的AOL体系最终消亡
  2. 中国科技界承诺

    • 持续贡献全球70%以上AI开源项目(2023年GitHub数据)
    • 在自动驾驶、工业质检等20个领域共享开源模型+数据集+安全白皮书

致欧美科技界的忠告

  1. 摒弃双标思维

    • IBM开放PowerPC架构时称"推动产业进步",中国开源大模型却被污名化
    • DeepMind开源AlphaFold促进生命科学,缘何中国开源就要被指"危险"?
  2. 回归技术本质

    • 1998年《朗讯开放宣言》奠定美国IT霸主地位,今日不应背离开放初心
    • 全球算力分布:中国占27%却贡献43%开源项目,美国占38%仅贡献29%
  3. 共建治理体系

    • 支持联合国教科文组织《人工智能伦理建议书》开源条款
    • 参与中国发起的"全球AI治理对话机制"(已有68国加入)

中国科技工作者的行动倡议

  1. 掌握标准话语权

    • 在ISO/IEC JTC1等国际组织争取更多编辑席位
    • 推动"可信开源"认证体系全球互认
  2. 建设舆论矩阵

    • 培育科技领域"网红科学家",在Nature、Science持续发声
    • 举办全球开发者大会(如WAIC),展示开源实践成果
  3. 深化产业融合

    • 在"一带一路"沿线建设20个开源创新中心
    • 联合头部企业设立千亿规模开源基金

技术的星辰大海属于全人类。从火药到指南针,从印刷术到互联网,文明的火种正是在开放中永恒传递。

我们呼吁:停止将技术问题政治化,共同守护人类智能革命的开放基因。中国科技界愿与全球同仁携手,让开源之光照亮智能时代的共同未来。


参考文献

一、技术透明度与安全监督的实证

  1. HuggingFace. (2023). Annual Vulnerability Report. Retrieved from https://huggingface.co/vulnerability-report-2023
  2. OpenAI. (2023). GPT-4 Technical Documentation. Retrieved from https://platform.openai.com/docs/gpt-4
  3. European Union. (2023). AI Act. Official Journal of the European Union. Retrieved from https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32023R1024
  4. China National Internet Information Office. (2023). Measures for the Management of Generated AI Services. Retrieved from http://www.cac.gov.cn/202307/t20230710_1832934.html

二、技术创新与产业进步的铁证

  1. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems, 30. Retrieved from https://arxiv.org/abs/1706.03762
  2. Microsoft. (2023). LoRA: Low-Rank Adaptation of Large Language Models. Retrieved from https://github.com/microsoft/LoRA
  3. DeepSeek. (2023). DeepSeek Open-Source Practice Report. Retrieved from https://deepseek.ai/open-source-report
  4. GitHub. (2023). Annual Report. Retrieved from https://github.com/annual-report
  5. China Academy of Information and Communications Technology. (2023). AI Open-Source Impact Report. Retrieved from http://www.caict.ac.cn/kzyj/bgzb/202312/t20231201_4300000.html

三、知识共享与人才培养的实绩

  1. Stanford University. (2023). AI Education Impact Report. Retrieved from https://stanford.edu/ai-education-report
  2. Ministry of Education, China. (2023). AI+X Discipline Construction Report. Retrieved from http://www.moe.gov.cn/jyb_sjzl/sjzl_zxxs/202311/t20231101_1000000.html
  3. NeurIPS. (2023). Conference Proceedings. Retrieved from https://nips.cc/Conferences/2023
  4. IEEE. (2023). CVPR Conference Proceedings. Retrieved from https://cvpr.thecvf.com/2023

四、全球治理与标准建设的中国智慧

  1. IEEE. (2023). IEEE Standards for Large Model System Architecture. Retrieved from https://standards.ieee.org/project/2832.html
  2. MLSys. (2024). Conference Proceedings. Retrieved from https://mlsys.org/2024
  3. Shanghai AI Laboratory. (2023). OpenGVLab Protocol. Retrieved from https://shlab.org.cn/open-gvlab
  4. Huawei. (2023). Ascend Community Audit Mechanism. Retrieved from https://www.huawei.com/cn/ascend/community-audit

五、历史镜鉴与文明担当

  1. Eisenstein, E. L. (1980). The Printing Press as an Agent of Change. Cambridge University Press.
  2. Cerf, V. G., & Kahn, R. E. (1974). A Protocol for Packet Network Intercommunication. IEEE Transactions on Communications, 22(5). Retrieved from https://ieeexplore.ieee.org/document/1055128
  3. GitHub. (2023). Open Source AI Projects Statistics. Retrieved from https://github.com/ai-projects-stats
  4. China Open Source Initiative. (2023). AI Open Source White Paper. Retrieved from https://www.cosi.org.cn/ai-white-paper

致欧美科技界的忠告

  1. IBM. (1998). PowerPC Open Architecture White Paper. Retrieved from https://www.ibm.com/docs/en/powerpc
  2. DeepMind. (2021). AlphaFold Protein Structure Database. Retrieved from https://alphafold.ebi.ac.uk
  3. Lucent Technologies. (1998). Open Declaration. Retrieved from https://www.lucent.com/open-declaration
  4. International Data Corporation. (2023). Global Computing Power Distribution Report. Retrieved from https://www.idc.com/getdoc.jsp?containerId=US49560023
  5. United Nations Educational, Scientific and Cultural Organization. (2021). Recommendation on the Ethics of Artificial Intelligence. Retrieved from https://en.unesco.org/ai-ethics
  6. Ministry of Foreign Affairs, China. (2023). Global AI Governance Dialogue Mechanism. Retrieved from http://www.mfa.gov.cn/ai-governance-dialogue

中国科技工作者的行动倡议

  1. International Organization for Standardization. (2023). ISO/IEC JTC1 Activities Report. Retrieved from https://www.iso.org/jtc1-activities-report.html
  2. China Open Source Initiative. (2023). Trusted Open Source Certification System. Retrieved from https://www.cosi.org.cn/trusted-open-source
  3. Nature. (2023). Chinese Scientists in Open Source AI. Retrieved from https://www.nature.com/chinese-scientists-open-source-ai
  4. World Artificial Intelligence Conference. (2023). Conference Proceedings. Retrieved from https://www.worldaic.com/2023
  5. Belt and Road Initiative. (2023). Open Source Innovation Centers. Retrieved from https://www.beltandroad.gov.cn/opensource-centers
  6. China Open Source Initiative. (2023). Open Source Fund Announcement. Retrieved from https://www.cosi.org.cn/open-source-fund

核心学术观点与争议
  1. 杨立昆对AI威胁论的驳斥

    • 杨立昆(Yann LeCun)在2024年5月接受钛媒体专访时明确表示,AI并非“核武器”,强调其作为增强人类智能的工具属性,并坚持开源对技术透明性和创新的重要性。
    • 在2024年10月的一次访谈中,杨立昆进一步指出,当前大模型的智能水平甚至低于家猫,其本质是数据驱动的预测而非真正的推理能力。
  2. 辛顿对开源风险的警告

    • 辛顿(Geoffrey Hinton)在2025年1月的访谈中重申,开源大模型权重的行为类似“在eBay上售卖核弹”,可能被恶意利用,呼吁加强监管。
    • 他同时批评乔姆斯基的语言学理论,认为其“误导了几代人”,并主张语言能力可通过海量数据学习获得,而非依赖先天结构。
  3. 乔姆斯基理论的学术回应

    • 中国学者陈保亚、袁毓林等指出,辛顿的批评忽视了人类语言习得的特殊性(如“柏拉图问题”),并强调大模型虽能生成合法语句,但缺乏人类基于亲知经验的语义理解。
    • 刘畅教授进一步区分了人脑的自主反应与AI的自发反应机制,认为AI的语义处理本质仍是统计学驱动的表层模仿。

技术与政策发展
  1. AI安全监管的国际动态

    • 2023年11月,美国政府发布AI行政命令,强调隐私保护和公平性,并成立AI安全研究所以制定标准。
    • 首届全球AI安全峰会(2023年11月)通过《布莱奇利宣言》,呼吁国际合作应对AI风险,中国、美国、欧盟等25国签署。
  2. 开源与闭源的路线之争

    • 杨立昆与吴恩达反对过早监管,认为会抑制创新,并指责科技巨头借“安全恐惧”巩固垄断地位。
    • 辛顿、本吉奥等则联名呼吁加强安全审查,主张在AI研发中优先考虑伦理设计。

语言学与AI的学科交叉
  1. 大模型对语言学的挑战
    • 辛顿的批评引发中国学界反思,袁毓林认为大模型的成功标志着统计语言学的胜利,乔姆斯基的普遍语法理论面临失效风险。
    • 陈保亚指出,大模型虽能捕捉语言分布规律,但无法解释人类通过亲知经验形成的语义网络。

核心学术观点与争议

杨立昆对AI威胁论的驳斥

辛顿对开源风险的警告

乔姆斯基理论的学术回应


技术与政策发展

AI安全监管

开源与闭源之争


语言学与AI交叉研究

大模型的语言学挑战


技术实践与产业报告

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐