欧洲核子研究组织(CERN)正在使用极小的人工智能模型,这些模型被直接烧录到硅芯片中,用于实时过滤大型强子对撞机(LHC)产生的海量数据。
- LHC每年产生约40,000艾字节数据,峰值时每秒可达数百TB
- 研究团队使用FPGA和ASIC运行定制化微型AI模型,而非传统的GPU/TPU架构
- 通过开源工具HLS4ML将PyTorch/TensorFlow模型转换为可综合的C++代码
- 只有约0.02%的碰撞事件被保留用于后续分析
- 第1级触发器在50纳秒内完成数据筛选决策
🕐 发布于: 2026年03月28日 18:01
发表回复