2023年最火的当然是ChatGPT这种AI大模型。
不仅在国外火,在国内也火,按照机构的统计,仅国内的AI大模型就高达上百个,而全球已经有超过500个AI大模型在推进。
(相关资料图)
而AI大模型背后,需要的就是GPU显卡,且主要就是英伟达的GPU,特别是A100、H100这些。
按照说法,GPT-4可能在大约10000-25000张A100上进行了训练,而根据马斯克的说法,GPT-5可能需要30000-50000个H100。
之前有机构表示,OpenAI一天的花费就是70万美元,也就是500万1天,如果融不到钱,也许2024年就得倒闭,可见搞AI大模型到底有多烧钱。
而AI大模型有多烧钱,就代表着英伟达有多赚钱。
目前在市场上,像A100是一卡难求,而在国内由于A100被美国禁售,只有阉割版的A800,但也是一卡难求,涨价涨至天际。
而最新的H100,更是火爆的不得了,据称目前价格已经被炒至3万美元左右,而实际上其物料成本预计只有3000美元,也就是说利润高达10倍,利润率高达1000%!
当然,这么简单粗暴的直接按物料成本来算利润,是不合理的,毕竟像H100被研发出来,还要考虑研发成本,研发人员的工资等等这些物料之外的成本。但不可否认的是,英伟达的利润是真的高。
这也是为什么,像intel、AMD等厂商,在今年亏的这么惨,而英伟达则业绩飙涨,原因就是GPU芯片太火爆了,目前nvidia的市值超过1万亿美元,也是全球唯一一家市值过万亿美元的芯片企业。
不过也有人表示,目前别看AI大模型这么火,但最终能够活下来的可能不会超过10%,另外的90%都会倒掉,到时候全球的GPU芯片都会过剩,然后整个GPU市场都会雪崩。
未来会不会是这样,谁也不清楚,但这并不重要,不管市场雪崩不雪崩,英伟达的钱已经赚到手了,崩了又如何,不崩又如何呢?
标签: