这个问题延伸一下,实际上还可以用于解读,为什么英伟达GeForce RTX 3080没有采用7nm工艺,或者很多IoT芯片没有采用7nm工艺。或许很多人在大方向上很清楚,未能采用最尖端工艺是基于成本的考量。
那么具体是什么样的成本问题,让诸多领域的数字芯片都无法采用最尖端工艺呢?结合前年MIT发布的一篇paper,The Decline of Computers as a General Purpose Technology: Why Deep Learning and the End of Moore’s Law are Fragmenting Computing,以及我们去年采访赛灵思中央工程部芯片技术副总裁吴欣先生,大致能够解答这个问题。
总结一句话,芯片具体的应用市场,决定了芯片本身采用的工艺制程。以下详述:
一
暂且不谈还未广泛应为用的台积电5nm制程。半导体行业协会(SIA)2017年估算,针对新一代技术节点建工厂(也就是台积电7nm节点,或者Intel的10nm节点——通常认为这两者是同一代工艺节点),配套制造设备,大约需要70亿美元。在过去25年间,构建最新制程节点工厂的投入每年平均提升11%,如果加上工艺开发,则可将成本每年推升13%(2001-2014)。
要抵消这些固定成本的急剧提升,一方面自然是要求半导体行业本身的成长、更大的市场规模,以企业更高的产量来摊薄固定成本。另一方面,则在成本和市场增长不对等的情况下,导致一部分市场玩家离开,那么剩余的市场玩家就要进一步获取市场,拿到更大的销量来再行摊薄成本——这一点原本就是趋势,从2002年至今,能玩转最先进工艺制程的晶圆厂已经所剩无几。在GlobalFoundries退出7nm竞争之后,市场上还能做最先进制造工艺的企业现在就只剩下Intel、台积电和三星了。
Intel过去10年的R&D投入变化,来源:YCHARTS
Intel的10nm/7nm工艺在难产一点也不让人意外。
粗略地算一笔账,在上述两个条件同时满足的情况下,现有的市场参与者才刚好让这一市场的增长率(理想情况下如果市场份额在几个参与者间均分,则结合历年数据,企业复合年增长率约为14%),和前述13%成本提升两相抵消,并有盈余。那么按照固定成本还在推升的趋势,未来参与者还需要进一步侵吞竞争对手,才可能获得生机。
这种趋势是不能持续的。在市场容量有限的情况下,制造商真正的解决方案很显然,是被迫减缓新技术节点的迭代,或者通过其他方式来控制成本。
市场的这种整体恶化,实际对Intel产生了很大的影响——Intel一直以来的主要营收支柱就依赖最新工艺,所以市场实际状况对Intel的打击也远高于三星和台积电,台积电更早的节点也是其重要营收来源。Intel工厂的固定成本与可变成本之比,在过去10年间从60%攀升到了超过100%。
要解决成本控制问题主要有两种方法,一是推高产品的平均售价获得更高的利润;二是减缓新节点制程的更新步伐,把新工艺的迭代周期推迟一年。实际上Intel同时采用了这两种方案。抛开技术层面的问题不谈,推迟工艺迭代也算是个必然选择,无怪乎挤牙膏的市场现状。
从SPECint的测试数据来看,1985-2005年通用计算机每年平均跑分成绩提升52%,而在2005年之后掉到每年22%,预计到2020-2025年期间这个数字还要缩减。美国劳工统计局的数据为,通用处理器相同成本下2000-2004年每年性能提升平均为48%,2008-2014年则为8%。
总结一句话就是,如果你没有一定的芯片出货量来摊薄成本,那么你就无法承担得起对应的工艺。比如最尖端工艺肯定是最昂贵的;相应的,你可以用更老的工艺。你的市场容量越小,你能用的工艺就越便宜,甚至次代工艺都可能用不起。
下面一段进一步补充说明。
二
尖端工艺的制造成本在上升,实际上设计成本也在上升。所以是两方面的。以下这个段落,援引一部分采访时获得的资讯。首先还是给上面的段落,补充说一下制造成本的攀升问题:
从28/20nm开始,制造成本就开始上升得比较多。主要原因是多次曝光(multi-patterning)。以前还是用193nm的光刻技术。到了20nm,只能通过多次曝光去曝出这些比193nm自身小了很多的线条。这样一来光刻的成本就增加了。简单来说,本来是一次曝光,现在两次:原来一个机台一天可以做2000片wafer,若两次曝光就只能做1000片了。一片wafer从头到尾大概需要几十步的光刻步骤,如果里面有一半需要两次曝光,成本就增加了25%。
单就光刻技术来说,整个业界花了二三十年的时间把EUV(极紫外光)做出来,今后几代光刻都会使用EUV。在3nm以后,大概EUV本身就需要multi-patterning,或者加上High-NA(高数值孔径)。EUV光刻机,一台机台就需要2亿美金。台积电、Intel的新工艺生产线都需要十几台这样的设备。这些都是制造成本攀升的组成部分。
2002-2014年,最新节点工艺制造商的数量变化,来源:Smith (via MIT)
然后是设计成本部分:
以前工艺迭代,设计芯片,只需要了解65nm比90nm小多少,我们直接把90nm上的设计,拿到65nm工艺上,重新设计一下马上就能做,整个过程半年、一年就完成了。但现在,7nm和16nm有很多不一样的地方,不能把16nm的设计直接放到7nm里面去用,从架构到设计,到后面每部分工作都不一样——唯有重新优化才能做到最好的优化。”
所以说,如果应用尖端工艺做设计的话,那么设计越来越复杂,设计周期变长,需要的人员变多。做设计,过去可能只需要1年,现在就需要2年;参与芯片设计的人员过去可能是1000人,现在变成2000人(或4000人/年),成本提升到4倍。这对芯片设计而言就成了很大的负担。必须要有足够多的钱和人才,才能把芯片做出来。
现在和过去相比,每一代增加至少30-50%的设计成本。采用尖端工艺,自己做芯片,要准备好4000人/年,做出来之后4000人还要再做下一代。有多少业务能够承受这样的设计成本?有多少企业能够自己做芯片?即便谷歌,TPU部门也并不是很大,远不到自己设计、维持、运营的程度,其它的芯片供应商在这方面在为谷歌提供服务,这也是因为谷歌有钱,并不是人人都能做。
以前一年超过几十万颗的量,你就可以自己做ASIC。但现在不是,没有几百几千万,没有那么大的芯片需求量,最终是不划算的。
上面第二段援引的内容,呈现的数字不是一个定值,需要视芯片复杂度而定;比如谷歌TPU,即便这么大的公司,其实在设计上也部分外包给了博通。
总结一下:CPU作为一种通用处理器,可以由大量的客户去摊薄成本,在手机和PC市场上是行得通的,也是尖端工艺最适用的场景。毕竟手机、PC一年的出货量都奔着几亿去的,iPhone一年销量貌似就有2、3亿吧。
但并不是所有的行业都有这个程度的出货量。就连汽车这个看似庞大的市场,最畅销的车款,年出货量百万就已经很了不起了。汽车市场其实都很难走得起尖端工艺的量——所以我们看到很多面向汽车市场的芯片也不会采用尖端工艺,更别说龙芯应用的军政市场,以及更多IoT芯片本身也并不庞大的市场。
还有一点,前几天也在知乎看到有人提到,军政市场其实对功耗、芯片面积之类的问题并不敏感,所以这类市场也天然不像消费市场那样需要什么尖端工艺。
这个成本如前所述,包含了在芯片设计方面投入的人力、时间、技术成本,也包括了十分昂贵的制造成本。
内容选自知乎,参考来源:
[1] 深度学习的兴起,是通用计算的挽歌? - EE Times China
(https://www.eet-china.com/news/201907120931.html)
[2] 摩尔定律失效,FPGA迎来黄金时代? - EE Times China