diff --git a/学术讲座-交流-面试/算力讨论.md b/学术讲座-交流-面试/算力讨论.md new file mode 100644 index 0000000..47d68fa --- /dev/null +++ b/学术讲座-交流-面试/算力讨论.md @@ -0,0 +1,75 @@ + +机柜、机房已建成 +北京市的项目,支持3.5亿,算力必须是国产化的,昌平要求部分使用国外算力,但是失败。 + +电子院做了方案,基于国产化做了方案 + + +三部分 + +cpu + GPU加速 + 半精度ai + +cpu主流的海光的,华为arm的 +提出了异构的方式 + +加速的情况 加速的比例不高 + +半精度的 + +保障中心负责招标,预计明年年中交付使用 + +## 方案 + +海光C86 华为鲲鹏 异构的来建 +HG 7490 KP 920 +海光软件都支持,华为支持部分 +支持openfast openfoam conda + +超算加速算力 +海光DCU BW1000 fp64 +鲲鹏72F8 + +智算 +海光深算 BW1000 +国产 + +存储 + +算力平台 + +整体建设方案: + + +单个任务最大核数,9600?谁报的 +单个任务最大gpu调用 1P? + +windows需求 能力上可以支持windows +软件 有运维团队 +gpu并行,基于cuda开发即可,超算gpu就支持 +P的规模 +推理上的需求按token报 +现存的机架设备,放哪里 + + +外网到内网摆渡,只进不出,下半年预计上线 + +北京市提供了便利,ipv6的形式都开放翻墙,风险比较高,怀柔2楼有四台电脑学术外联app合法翻墙,可以联系外联部。 + + +1、拉个群 +2、ai推理这块需求 +3、北京市的项目支持3.5亿,做了cpu ai 加速三块的配比 +4、未来也会扩建,可能也能买进口的设备 + + + + +总结 +1 北京市的项目,出资3.5亿,切分成cpu gpu加速算力 ai算力三块,全国产化。放这核心区,机房、机柜已有,算力设备没采购,预计明年年中交付使用。团队按使用时长支付电费 +2 能力上可以支持windows系统和软件 +3 软件安装上后续有运维团队 +4 ai推理需求后续展开统计,按照token报需求 +5 未来也会扩建,使用实验室自己的资金,可能也能买进口的设备 + +补充 +外网到内网摆渡文件服务,只进不出,下半年预计上线 \ No newline at end of file