6 月 20 日消息,据Cloudsmith发布的报告爆料,当下AI生成代码的数量正呈爆发式增长。
报告里一组数据颇为扎眼:在使用AI的开发者中,42%的代码由AI生成,其中16.6%的开发者让AI贡献了“大部分”代码,更有3.6%的代码完全出自机器之手。
可尴尬的是,人工代码审核的速度压根跟不上这股“AI造码潮”,安全隐患正像滚雪球一样越滚越大。
这事儿细想挺让人揪心的。AI写代码确实能把开发效率拉满,某互联网公司技术负责人私下透露,团队用AI辅助开发后,功能迭代周期缩短了近一半
但随之而来的漏洞却让安全团队忙得脚不沾地。“上周刚修复了AI生成代码里的SQL注入漏洞,这周又发现接口权限控制写得稀碎。”
他苦笑称,机器生成的代码常带着“逻辑短路”,比如把敏感数据加密流程写反,或是在分布式系统里漏掉事务回滚机制,这些坑都得人工一个个填。
更棘手的是审核体系的滞后。
某网络安全公司的监测数据显示,今年一季度因AI生成代码引发的漏洞报告同比激增270%
但企业安全团队平均要花48小时才能完成AI代码的深度审计——这还是在配备资深安全架构师的前提下。
“很多中小公司连专职安全岗都没有,全靠开发自测,AI代码里藏的‘定时炸弹’根本查不出来。”一位白帽黑客坦言
他近期在渗透测试中发现,37%的企业系统漏洞都源自AI生成的未审核代码。
行业乱象背后,是技术伦理与安全防护的脱节。
有高校计算机系教授指出,当前AI编码工具普遍缺乏“安全基因”,比如GitHub Copilot生成的代码中,约12%存在资源泄漏风险,但工具本身不会主动预警。
而开发者过度依赖AI的“智能”,甚至会忽略最基础的代码审计流程。
某电商平台曾因AI生成的支付接口未做防重放攻击处理,导致用户订单重复扣款,最终赔付超百万,这起事故至今仍是圈内的警示案例。
当技术迭代的快车跑得越来越快,我们不得不思考:在AI代码占比即将突破半数的临界点,是该给工具装上“安全刹车”,还是强制建立AI代码的审核准入机制?
或许真正的破局点,在于让AI不仅能写代码,更能“自检漏洞”——但这又需要多少技术投入与行业共识?
(本文内容来源:Cloudsmith 6月18日报告、某互联网公司技术负责人访谈、网络安全公司监测数据)
更新时间:2025-06-21
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号