任何人对人工智能都有着自己的看法,而Mentor Graphics在今年夏天的DAC上讨论了关于AI的2个立场。作为一家EDA公司,他们有两个特定的机会来发现人工智能的价值。一是改进他们提供的设计工具;另一个是专门为人工智能设计创建设计工具。我们今天要讲第一个角度。
因此,对于这个故事,人工智能本身并不是终点;这将是达到目的的手段。人工智能已被用于生产车间,以帮助提高产量和减少设备损耗,但这依赖于晶圆厂的数据。今天,我们正从生产环境向设计领域的上游迈进。我们将特别关注Mentor如何利用人工智能在晶圆厂内进行光学邻近效应矫正(OPC)和制造设计(DfM)。
AI+OPC
让我们从OPC说起。对于任何新概念来说,由于硅尺寸太小,无法用光刻波长193nm打印,所以我们用了一些技巧。问题是,芯片特征尺寸如此之近,以至于影响了彼此形状的保真度。因此,这些形状被修改了——或者添加了“辅助功能”——以欺骗光线,让它照出我们想要的效果。
OPC通常使用确定性模型来完成,该模型允许工具创建修改后的模式。但Mentor表示,OPC面临四大挑战:
精度
周转时间(TAT)
工艺窗口增强
生产力
有两家公司运用了人工智能来解决这一问题。为了达到所需的精度,在24小时内完成OPC所需的内核数量正在急剧增加。他们把人工智能看作是一种降低这种风险的方法。
OPC是一个迭代过程,需要在10-15次迭代的范围内收敛。Mentor的方法是使用机器学习一次性处理前十次的迭代。这可能不会是一个很理想的光罩(mask)方法,但它会变得更接近。然后,可以使用传统迭代,只需几次就可获得最终结果。
正如你从图中所看到的,24小时循环所需的核心数量下降了三分之二。另一种说法是,带有人工智能的TAT是传统方法的三分之一,同时提高了精确度。
用于训练模型的数据是基于最初的晶圆设计测量。为了确定整个工艺窗口,我们进行了实验设计(DoE)来扩展数据集,新的设计可以利用该模型进行OPC。
模型的演变
当然,人工智能的一个有趣的特点是永无止境的学习。得到的数据越多,模型就越好。因此,从理论上讲,人们可以在最初批量生产的基础上继续获取制造数据,并将其纳入人工智能模型中,以便随着时间的推移不断改进。
但这里有个问题。
假设你的流片设计已经搞定,但发现需要进行更改。当你激活工程变更命令(ECO)流程并进行调整时,它需要生成一个新的掩码,这就需要OPC的帮忙。在这个情况下, 我们假设OPC AI模型被用于这个调整后的设计已经超越了最初的掩模集。所以现在,当你运行OPC时,你可能不仅会改变电路中受ECO影响的部分,而且会改变整个掩模。
这样可以吗?你相信人工智能模型的进化只会改善这件事情吗?或者,你是否会以一些曾经有效的东西不再有效而告终?尽管有很多意想不到的事情发生了改变,但它变得更好了。但是现在是否需要运行一些测试来确保没有损坏?这违反了基本原则,“如果它没有坏,就不要修理它!”“那你该怎么处理呢?”
Mentor好像还没有一个拿得出手的方针。他们指出,当发现新的坏点时,首要任务是进行选择性的生产调整,以尽可能提高产量。但这种变化可以被应用到人工智能模型中,让它能够凸显出模具中更多的问题区域。因此,“持续学习”模式是切实可行的。
我提出了一种可能的处理方法,他们表示认同。——版本锁定。对于设计工具来说,这是一个已经存在的概念,因为新版本可能会更改算法,而在设计过程中更改版本可能会撤消所有已经完成的收敛工作。因此,你可以在设计的整个生命周期中锁定工具版本,在下一次设计时移动到新版本。
这也可以用OPC(或任何其他)AI模型来实现:将模型的版本锁定到设计中,以便将来对该设计所做的任何工作都将使用相同的AI模型。也就是说,可能有一个例外:如果这个设计揭示了新的坏点——模型最初被改变的原因。调整制造是理想的方法,但是,如果它本身还不够,你可能需要改变光罩以消除坏点。在这种情况下使用新模型是有意义的。
综上所述,我觉得我们正在进入一个不稳定的领域,所以可能有一些法则规定了在这种情况下应该做什么。
首先,必须承认对于应用于哪个产品存在困惑。它看起来很像DRC,但实际上它是用于库验证的。换句话说,这不是一个你作为设计师会使用的工具;这是晶圆厂在组装电路库时使用的工具。是为了通过图案找到限制产量的坏点,而这些通常需要在一夜之间完成。完整的模拟花费的时间太长,因此在运行期间会采样并检查脆弱模式。这些易受攻击的模式可以在模式库中找到(与正在验证的电路库分离)。
创新之处在于,他们不再使用库来进行谏检验,而是使用它来训练一个AI模型,然后使用AI模型来检出电路库。这带来了几个好处:首先,如果他们只使用库中的模型进行签出(checkout),那么你将只能在设计中找到那些特定的模式。但是,使用人工智能,可能会发现不在库中放其他类似的模式。所以得到了更好的质量和更高的产量。
另一个好处是,现在签出运行速度比使用传统模型快10倍。这种说法有一定的道理。进行完整的库模拟需要很长时间,这就是为什么签出常常限于特定的已知坏点。在抽样坏点时,覆盖范围并不全面。所以当我们说人工智能辅助版本要快10倍的时候,我们在和哪个东西比较呢?据 Mentor介绍,他们首先确认AI版本是详尽的,而10x的比较是与完整模拟的比较——也就是说,我们在进行新版和旧版的比较。
延伸阅读
OPC技术背景
在半导体制造中,随着设计尺寸的不断缩小,光的衍射效应变得越来越明显,它的结果就是最终对设计图形产生的光学影像退化,最终在基底上经过光刻形成的实际图形变得和设计图形不同,这种现象被称为光学邻近效应(OPE:Optical Proximity Effect)。
为了修正光学邻近效应,便产生了光学邻近校正(OPC:Optical Proximity Correction)。光学邻近校正的核心思想就是基于抵消光学邻近效应的考虑,并建立光学邻近校正模型,根据光学邻近校正模型设计光掩模图形,这样虽然光刻后的光刻图形相对应光掩模图形发生了光学邻近效应,但是由于在根据光学邻近校正模型设计光掩模图形时已经考虑了对该现象的抵消,因此,光刻后的光刻图形接近于用户实际希望得到的目标图形。
坏点 Hot Spot
在集成电路制造中,经过OPC处理过的版图,在发送到掩模厂制造掩模之前,还需要进行验证,就是对OPC处理过的版图做仿真计算,确定其符合工艺窗口的要求。不符合工艺窗口要求的部分被称为坏点,坏点必须另行处理以符合工艺窗口的要求。
坏点修复
解决坏点的过程被称为“hot spot fixing”。在k1比较小的光刻层,第一次OPC处理后的坏点有十几万到几十万个。对坏点区域图形的审查和评估是一项浩繁的工作。坏点的解决一般由OPC工程师负责,通过调整OPC来解决。有些坏点是全局性的,通过修改OPC中的评价函数和规则,可以一起解决。而有些坏点有一定的特殊性,规则的改变会导致其他地方形成坏点。这些坏点必须通过局部的修改来解决,这一过程非常耗时。解决坏点时要充分利用坏点周围的空间,可以给线条加宽、延长或者添加辅助图形。
常用的坏点解决办法示意