kaiyun官网
News Center
新闻中心
新闻中心 您的位置: 首页 > 新闻中心
富士康子公司因税务被罚!理想芯片团队超160人;对话深存科技:大模型时代算力和数据变革方向在哪?感受Tower:幕后巨人隐形冠军
2023-11-25 07:08:09 作者: 新闻中心

  1.照亮产业前途、辉映同路人!2024 IC风云榜第二个“100家”提速到来

  3.幕后巨人,隐形冠军:感受Tower在硅基微显示芯片和特种图像传感器制造工艺的巨大能量

  1.照亮产业前途、辉映同路人!2024 IC风云榜第二个“100家”提速到来

  集微网消息,12月16日,以“重组创变,整合致胜”为主题,由半导体投资联盟、爱集微共同举办的“2024半导体投资年会暨IC风云榜颁奖典礼”将在京举行。日前,大会组委会累计收到众硅电子、为旌科技、元视芯、星曜半导体、瀚巍创芯、海松资本、永鑫方舟等超200家企业/投资机构报名资料,群芯荟萃、星光闪耀!

  本届“IC风云榜”重磅推出35大奖项。其中,新增年度最佳“专精特新”投资机构奖、年度最佳国资投资机构奖、年度最佳地方政府投资机构奖、年度最佳行业投资机构奖(新能源)、年度最佳行业投资机构奖(人工智能)、最佳行业投资人奖(汽车电子)、集成电路园区总实力“TOP30”、科创板知识产权创新奖、芯力量知识产权创新奖、科技成果知识产权创新奖等奖项;同时,聚焦汽车智能化时代下的汽车电子发展创新趋势和风向,打造车规芯片类系列奖项。值得一提的是,仅“年度中国半导体投资机构TOP100”报名单位日前就已突破500家!

  围绕35大奖项,产业链相关单位展开激烈竞逐,并以惊人的速度推进。到底有多快?自10月启动以来,本届风云榜报名单位在11月3日超100家;而从100家到突破200家,仅用时18天,明显提速!

  “IC风云榜”自2020年启动以来,迄今已成功举办四届,吸引国内外知名半导体企业与投资机构参评,涵盖上市公司、行业翘楚、投资机构/投资人、产业园区、政府引导基金、知识产权等领域,深受市场认可、青睐。此时此刻,距离奖项发布已不足一个月,“花落谁家”充满想象!

  即将过去的一年中,“并购重组”这一关键词在业界频繁显现,企业感受深刻的同时,投资机构也深度介入,共同促进产业整合、扩大市场空间,帮企业实现资源、产品与市场的优势互补,加速半导体业务市场占有率。目之所及,半导体行业并购整合的时代隐隐来临。

  沧海横流显砥柱,万山磅礴看主峰。当前,报名单位以惊人的速度突破200家,是奖项竞逐愈发激烈的体现。随着大会定档12月16日,接下来的时间里将迎来更多伙伴,拾起“火种”、高举“火把”,照亮产业前途的同时,也辉映携手共进的同路人。

  为保证大会的权威性和严肃性,本届“IC风云榜”评选由半导体投资联盟超100家会员单位,及500多位半导体行业CEO共同担任评委,依据市场、学研、资方、品牌等多维度权威数据,秉持公正公开、范围广泛原则,通过公开征集、自愿申报、专家评选等程序,严格遴选行业年度“优秀人物、机构、企业、园区与品牌”,旨在鼓励和表彰过去一年中,在半导体技术创新和产品设计制造、行业资本管理及运作、产业链上下游集群建设、企业财务表现等方面,作出突出贡献,取得优异成绩的对象,树立新标杆。

  “重组创变,整合致胜”这一主题不仅蕴含着产业风向的总结与前瞻,更是一次跨越山海的携手相扶,也是来年相邀共进的美好冀望,折射产业曲折前行背景下的旺盛之景。

  集微网报道 去年年底开始,以ChatGPT为代表的生成式AI浪潮席卷全球。活跃用户数5天破百万,2个月破亿,成为历史上增长最快的消费端应用程序,其背后隐含和衍生的意义有着无限的想象空间,能够说是下一个工业革命的到来。

  大模型时代对于算力、存储、网络的要求是革命性的,随着全球公司正在从通用计算向加速计算和生成式AI过渡,一个全新的计算时代已经开始。

  面对繁重的数据场景和日渐增长的成本压力,以CPU、GPU为代表的传统计算架构和形式越来越显得力不从心,对于新的计算形态和基础设施的呼声也愈发强烈,深度思考算力和数据的关系是其中关键。其中,以数据为核心,围绕数据来进行算力部署,成为计算架构变革、降本增效的发展方向。

  著名科学家谷歌DeepMind的创始人兼首席AGI科学家Shane Legg曾经对通用AI(AGI)预测,随着全球数据量呈指数增长,机器的计算能力需要在未来几十年内呈指数增长。

  “当计算和数据量都呈指数增长时,高度可扩展算法的价值才会逐步的提升,因为这些算法可以更有效地利用计算和数据。其次,通过可扩展算法的发现、模型的训练,未来模型的数据规模将远超于人类一生中所经历的数据量。”

  今年2月份后,国内开始感受到大模型的汹涌澎湃。以互联网厂商为代表,利用半开源的大模型进行研发迭代,结合自己的数据资源,推出相应针对不一样场景的大模型产品,“百模大战”成为热词。

  当前,对于算力的追逐,成为大模型竞争和掘金的胜负手。而在传统计算架构下,先进GPU的数量,决定了大模型企业能力的上限,围绕A100/H100、A800/H800已经展开了一场一直在升级的“军备竞赛”,目前拥有这把钥匙的行业“卖铲人”英伟达因此一骑绝尘,同时谁能买到这些GPU几乎成了AGI行业的门槛,而且成为限制国产通用AI发展的筹码。

  但相较于百花齐放,令人眼花缭乱的大模型产品,需要什么样的算力架构和数据结构予以支持,外界却还来不及太多关注。实际上,作为上游产业和基础设施,新的计算与数据之间的关系也在发生变革,这才是支撑大模型发展的关键,既要做到比现有GPU架构更高效,又要降低计算成本,谁能够掌握这些,等于拥有打开下一个工业革命既AGI时代的金钥匙。

  巨头企业疯狂砸钱,中小企业望而却步,面对大模型的机遇,企业却面对沉重的成本压力,同时也被拉开了巨大的差距。降低大模型的进入门槛,硬件和算力层面的降本增效变得至关重要,成为未来巨大的机会。

  现在的语言大模型不像人类拥有情景记忆,人类的记忆可以简单分为:工作记忆,即最近发生的事情;皮层记忆存在于大脑皮层中,负责长期记忆。另外在两者之间还有一个系统,即情景记忆,由海马体负责。

  情景记忆在让我们建立个人经历和学习新信息方面起着及其重要的作用,能够在一定程度上帮助人类拥有非常高的样本效率,可以从较少的样本中学到更多的信息。然而目前AI大模型并不具备这样的功能,只是通过增加上下文窗口的长度(更像是工作记忆)来弥补情景记忆的缺陷。

  关于AI的情景记忆的缺陷问题,DeepMind的创始人兼首席AGI科学家Shane Legg认为这涉及到了模型的架构问题。对于大型语言模型而言,在实际的模型训练时,它们会经历一个漫长的过程,处理数万亿个标记的数据,以更全面地学习语言的结构和规律。

  在深存科技创始人&CEO袁静丰看来,“这对于计算架构有更高的需求,也就是如何在短时间内高效计算庞大数据量的内容,而这也使传统的以CPU为基础,并利用互联网互联的计算和存储分离的架构遇到前所未有的挑战。”

  结合之前的GPU短缺和高昂成本的问题,微软、OpenAI、特斯拉、谷歌、亚马逊、Meta六大科技公司纷纷开始研发自家的AI芯片,以GPU为代表的通用型芯片在大模型计算成本和效率上带来的挑战,正逐渐被更多企业所关注,而且这些英伟达的大客户们更是首当其冲,显然不愿把鸡蛋装进一个篮子里。

  “算力基础设施是生产算力的场所和设施,能够给大家提供数据服务、算力服务和智能服务等。大模型时代,数据是能源,算力是发动机,都是新时代的生产资料。以数据中心为主要载体的算力基础设施也是新基建中最具代表性的领域之一。”在深存科技创始人&CEO袁静丰看来,目前通用的GPU并非大模型时代算力的唯一最优解。

  “有别于通用计算GPU往往要兼容数千个算子,大模型对于基础算子的要求并不多,只有数百个。大模型对于计算并非一定要追求通用性,而是更追求效率和成本方面逐步提升。”袁静丰说。现在业界的普遍挑战是如何开发更高效的算力和数据平台,并针对特定用例来优化,从芯片到系统。

  此次GPT引发的大模型浪潮,袁静丰认为将是下一次工业革命的开始,类似20几年前世界打开互联网的大门之时,因被视为抢占流量的入口,各种浏览器和互联网站百花齐放,具有通用AI的大模型也将成为链接万物的入口。

  以此为参考,袁静丰认为,需要系统性的思考,就应用层面:一方面,利用公开数据集的通用大模型,最终将同浏览器一样逐渐走向归一。多模态趋势下,会进化成少数在不同的语言区域的超级智能中心或智能体。这在大多数情况下要5-10年的时间,而且给到互联网巨头或OpenAI这样的公司的机会更多。另一方面,对行业垂类大模型而言,特点是数据相对封闭,在工业、医疗等众多行业领域场景前景广阔,留给行业企业的机会更多。

  “互联网厂商自研芯片,既有目前GPU短缺和价格高昂问题,也有效率不足的原因,是不得已而为之。最终会面临通用性、投入产出比、以及产能到成本优势转换、供应链、硬件迭代能力等诸多挑战,芯片的研发需要高额的投入和长时间的积累,更需要长期大规模量产来摊销和减少相关成本。就长远来讲,这些硬件产品最后还是会回归到选择第三方独立硬件厂商的道路上来。”袁静丰说。

  大模型呼唤新型计算架构,以及与数据之间关系,未来所有企业都会是AI+数据公司

  “大模型时代,对于算力和数据的需求急剧增长,为芯片公司带来新的命题,人工智能工作负载需要新的处理器设计,解决大数据量造成的系统性问题。”袁静丰说。

  一方面,模型算力增长脱离摩尔定律,大模型的算力需求每两年增长750倍,而硬件的算力供给每两年仅增长3倍。

  另一方面,数据量也慢慢的变高,大模型数据量也在呈现指数级增长的趋势。数据在网络中的传输速度非常慢,只有尽可能少地传输数据,减少将数据从存储节点传送到CPU处理器,然后再让CPU或GPU处理器进行运算,最后将结果传送回来的冗余工作。同时它非常并行,可以分散在各个数据节点附近。

  在这样的趋势面前,传统的冯诺依曼体系下的计算架构变得难以应对,导致高昂的计算成本,也难以实现高效率计算。

  相比以往对于数据容量和通量的关注,如今的算力架构更加强调响应时间和数据处理的实时性,这种被称作“快数据”的需求,这也可以理解为数据引力,由高通量数据需求和低延时应用引起的,正促使计算资源向数据进一步靠近,以数据为核心的计算(Data Centric Computing)成为行业界继基于GPU的计算加速,DPU/IPU的网络互联加速之后的重要趋势。

  “因此,大模型时代,需要重新考虑如何优化AI计算架构和方式,从而使计算加速,解决数据繁重场景下的数据计算问题。围绕“数据湖”展开数据加速和算力部署的以数据为核心计算将会是未来业界的主要工作。”袁静丰提到。

  比尔·盖茨在11月9日发表一篇博客称:个人化的AI Agent将彻底改变人们使用计算机的方式。文中提出,计算机领域将在五年内颠覆,迈向下一个互联网。其中AGI的数据结构会是什么样子? 我们需要一种新型数据库,可以捕获你的所有兴趣和关系的细微差别并快速检索这些信息,同时保护你的隐私。我们已经看到了储存由机器学习模型生成的数据的新方法,比如向量数据库,这可能更适合存储AI Agent数据。

  袁静丰认为,新的大模型时代,是时候重新考虑计算和数据之间的关系。传统计算或通用型计算可以做计算密集型的工作,但数据量基本上是围绕内存来考虑。但如今新的数据中心基本采用了分布式架构,形成计算节点、存储节点跟网络节点三大技术模块或集群,这种被抽象成“东西流量”的形式需要考虑的是,面对大量应用数据在计算和存储节点之间的搬运,如训练数据、大模型向量数据库、应用和业务数据(互联网数据、短视频、碎片化文件)等等,带来的整体计算效率如何提升的挑战。

  因此,随着大模型AI发展迅速,算力和数据供需矛盾更加突出,从计算密集场景到数据繁重场景,数据侧的算力部署,成为大模型降本增效的核心关键。由于数据体量的指数增长,存储带宽、网络互联传输时间等等之间的挑战,新的计算方式考虑在存储内部或附近进行计算,通过将计算和存储功能融合在一起提高数据处理和AI计算的效率和成本,近数据计算则成为优解方案。

  “在芯片和系统的实际工作中,计算的能耗只占整个流程的很小部分,减少数据搬运是提升效率的关键。数据核心计算的思路是围绕数据流或存储节点处理大部分数据相关的业务,并为之加速,特别是大模型时代,这将变得尤为重要。”袁静丰说。

  需要指出的是,数据核心计算并非都要在近数据节点将计算全部完成,但可以得到结果或者极大程度上减少数据搬运体量。其中涉及的工作,比如预处理、数据加速、甚至围绕数据流完成实时的AI计算,以及数据挖掘任务等等,使其降低数据在各个节点之间互联流转的体量和时间,同时减少对远端CPU或者GPU占用的诉求是主要目的,整体而言就可以大幅减少成本、增加效果和计算效率。

  StorageX 深存科技成立于2020年底,是国际业内领先的高算力近数据计算/数据处理芯片/计算存储处理器及解决方案提供商,公司着力解决AGI大模型等数据繁重场景下的算力挑战问题,围绕全新的“以数据为核心计算”方向研发XPU/CSP处理器,构建AI+Data的一致性体系提高计算效率,应对高速增长的数据量及AI需求,与有限算力资源之间的矛盾,致力于解决“大数据”和“快数据”(Big Yet Fast Data)并存的难题。

  作为业界首家研发高算力近数据计算XPU/CSP数据处理器的公司,深存科技推出业内领先的具备强大AI算力的高性能数据处理芯片XPU/计算存储处理器CSP及系统,有别于传统X86 体系下的CPU和GPU,其融合异构的计算架构基于以数据为中心的处理单元,与 CPU/GPU/存储/网络等节点等建立对等系统,从而构建一个新型的分布式计算架构,极致提高计算效率。

  在袁静丰看来,从事近数据计算需要具备跨行业领域的理解能力,具有较高门槛,一是对于存储和数据加速领域的理解;二是对于AI算力架构的经验;此外还包括对于数据流设计、IO互联的深刻认知,需要较多跨领域的经验,这种跨计算、存储、互联领域knowhow的整合能力,包括一致性架构设计等一系列内容,是数据核心计算赛道创业公司的门槛所在。

  近年来,海外一些计算、存储领域的龙头企业,都在布局近数据计算赛道,包括英伟达、英特尔、AMD、三星、海力士等都在投资了一些相关的初创公司,表明了对这一赛道的看好,但相对而言,国内目前涌现的初创公司并不多。

  袁静丰指出,相比于海外的发展,国内半导体芯片产业发展普遍有滞后性,特别是在大芯片领域。比如GPU、AI领域的国内创业潮集中于2018年之后,但海外在2008年就开始兴起,过去十年已经是非常成熟的产业,基本由英伟达垄断。SmartNIC/DPU国内创业企业涌现是在2020年左右,海外则是在2015年。对于近数据计算和数据加速领域而言,海外市场从2018年左右开始,很多公司也处于起步阶段且无垄断企业,随着大模型挑战的与日俱增,这类芯片和解决方案变得尤为重要,这也是国内企业的机会。

  也正因如此,2020年成立的深存科技因此具备有先发优势。作为目前该领域为数不多的国内创企,深存科技能够在短短几年快速实现产品落地,得益于强大的研发实力和背景。据了解,深存科技的创始团队一支平均从业时间15年以上的,具有包括AI、芯片及SoC、数据加速、底层软件算法、架构方向设计等跨领域的人才团队。

  “围绕数据核心的近数据计算、计算存储领域仍有很多机会,算力和存储是相对独立的两条赛道,融合两者的发展是未来的关键,才能切实解决大模型给行业带来的挑战。目前大部分国内创企在单一的算力或存储赛道上发展,但是国际业界已经非常重视多方面融合的工作。过去几年结合业界巨头如英伟达、Intel、AMD、三星、Dell等等的参与,SNIA全球存储网络工业协会还专门成立了相关技术和标准工作组,相信随着大模型热度的发展,未来陆续会有更多初创企业出现,也将会获得国内行业以及资本的更多关注。” 同时作为多个国际相关行业协会的重要参与者的袁静丰说。

  成立三年来,深存科技积极布局相关赛道,相继迅速推出了原型机、工程样机,到目前已进入产品量产阶段。与其他类似赛道的公司相比,深存科技采用了独立的XPU/CSP和存储节点融合的近数据部署方式,其处理器可独立工作提供更高性能,支持更通用化的多元场景。

  目前,深存科技的主要产品包括钛湖Lake Ti系列XPU/CSP以及智能数据湖服务器,聚焦智能制造、工业智能化数字化、数据中心大模型、自动驾驶的数据闭环等三大业务方向。在功能方面,深存科技的钛湖Lake Ti产品具备强大的AI算力、数据加速能力和高效的互联能力。

  据袁静丰介绍,深存科技的产品采用先进的异构融合设计,其AI、数据加速、I/O加速三大块能力可以融合使用以达到更高计算效率,也可以独立运作,在兼顾强大性能的同时,具备更多灵活性。

  据了解,今年起,深存科技在商业化落地等场景进展顺利,已经实现很多客户的导入。在数字智能化场景、数据中心等业务方面,深存科技已与数十家客户建立了合作关系。其中,已经有超十家客户开始测试和导入深存科技的产品。预计明年将会大规模上量,开拓更多业务和场景。

  在大模型方面,深存科技也在同一些战略合作伙伴一起积极进行布局,计划明年推出相关产品。此外,明年深存科技还将推出机器人跟车载数据方面的相关产品。

  “从GPT3推出至今,大模型真正应用的历史不超过一年,但是带来的巨大变革已经被广泛认识。国内真正重视其大模型也就是在今年上半年,现在都处于大干快上阶段,先解决有无的问题,再去解决效率的问题。对于产业界而言,新的芯片和硬件的开发周期不会那么快,预计需要两三年时间,很多公司正在为此做准备。”袁静丰继续说道:“其实我们自公司成立之初提前做了很多这方面的准备,相信在未来场景里很快会看到更多相关的产品推向市场,让大家取得明显的降本增效的效果。”

  数据核心计算是近年来涌现的新兴赛道,而像深存科技这类的创企,几乎与海外同步,且始终保持了技术创新层面的行业领先,体现出独特的产业价值。

  在袁静丰看来,深存科技所提供的创新程度,是为未来的计算形态做准备,会比传统的CPU、GPU处理器更加具有颠覆性,相对而言,该领域并没有可以模仿借鉴的对象,创新层面确实有很多工作要做,很容易触碰到无人区。

  作为一家注重投入产出比的公司,深存科技创新体现出的是一种综合性能力,不光是在芯片微架构层面,还包括系统体系架构层面的创新。截至今年9月,深存科技已申请近50项专利,其中绝大部分是发明专利,包括AI、大模型、近数据计算、SoC芯片、数据加速、IO加速及高速互联等领域。

  一般而言,作为行业领先者,进入创新的无人区,对于创业者而言更需要智慧和勇气。

  在20多年的从业经验里,袁静丰在国际公司曾带领团队研发且持续交付过许多个业界领先的芯片及系统级产品,包括美光首颗NAND存储芯片、行业最早的企业级存储、最早进入数据加速及算力融合领域等等。参与了众多行业第一的事件,也让袁静丰和团队对于开创性的工作更加具有信心和底气。同时袁静丰也一直处在国际产业最前沿,目前还是SNIA全球存储网络工业协会XPU/DPU工作组主席,以及CMSI计算及存储技术委员会的董事及投委。

  此外,袁静丰表示,深存科技自成立伊始,便制定了清晰的战略规划,技术和商业化策略,公司的发展更注重实效和落地,同时也规避一些理想美好,现实骨感的领域。

  “围绕数据繁重场景,除了数据中心,还包括智能制造人工智能、半导体、精密制造等数字化、智能化应用层面,深存科技都在部署,从而兼顾短期和中长期的目标。最主要的事情还是去如何解决用户的痛点以提高生产力。也正是由于注重客户体验和客户效率,深存科技的产品在客户端得到非常积极的反馈。”袁静丰说。

  据了解,深存科技针对流媒体等场景的数据中心产品,TCO可以降到原来的几分之一,计算节点间网络互联流量降到原来的几十分之一。另外在大模型的应用层面,如向量计算和数据加速,深存科技的产品能够实现比现有主流方案好几倍到几十倍的效果,这样让大模型有更加优异的响应时间。

  “我们自成立以来用了两年半的时间就开始进行客户导入测试等一系列的工作,差不多用了大芯片行业通常一半的时间走到了市场端,预计也会用行业一半的时间去达到营收目标。对于技术研发型初创公司,在做技术创新的同时,应该抓住核心重点迅速行动去做产品化和市场化落地;既要登高望远,又要脚踏实地,企业的发展在政策、资本持续的助力和支持下,抓住技术为生产力服务的核心关键,帮助客户提升效率和体验,商业化就会水到渠成。”袁静丰说:“这也是我过去二十几年产业生涯最深刻的体会和经验之一”。

  3.幕后巨人,隐形冠军:感受Tower在硅基微显示芯片和特种图像传感器制造工艺的巨大能量

  上世纪80年代末,面对风起云涌无晶圆芯片设计公司(Fabless)大潮,AMD创始人杰里·桑德斯(Jerry Sanders)以此语回击Fabless咄咄逼人的态势,一时间舆论大哗。

  无可置疑的是,在集成电路最初发展的30年中,半导体行业采用的是IDM模式,随着创新动力与供求关系规律性地互相作用,Pure Foundry和Fabless模式应运而生。如今,一座先进晶圆厂的运营成本已经高得惊人,芯片设计与制造的分工体系正在不断深化和优化,那么“好汉都有晶圆厂”的时代真的过时了吗?

  当下,纯代工厂的产能、开工率、资本投入等是整个IC产业风向最有力的指示灯。在众声喧哗的摩尔定律追逐赛道之外,依然存在别有洞天之地。总部位于以色列的Tower Semiconductor(以下简称Tower)主打高价值的模拟半导体解决方案,多年来稳居全球代工厂前十。三十年来Tower在成熟工艺的RF-SOI、SiGe、PMIC、CIS等领域已经构筑了相当深的技术护城河,赢得了超高的业内口碑。

  11月10日-11日,中国集成电路设计业2023年会(ICCAD)在广州召开。Tower中国区FAE经理蔡圆在现场围绕硅基微显示芯片和特种图像传感器技术发表演讲。爱集微有幸就Tower相关技术的know-how,模拟类代工厂的竞争优势,全球范围内的产线布局等议题对蔡圆经理做了专访。

  微显示领域与个人日常工作和生活关联密切,6月份苹果公司的Apple Vision Pro发布,让资本市场对显示市场的相关概念股再度热捧。终端客户对显示设备的体积、功耗和亮度等不断有更高的要求,同时销售成本传导至代工厂商,给硅基微显示芯片工艺带来诸多难题。

  另外值得注意的是,微显示芯片看起来“小”,但相较于其他类型的芯片,其尺寸较大,对制造环节的良率构成了一定挑战。

  针对这一系列的难题,Tower采用了技术迭代的“存量技术”和“增量技术”双管齐下的策略。

  所谓存量技术,即Tower在图像传感器(CIS)这类相对尺寸较大的芯片上已经有了相当雄厚的技术功底。蔡圆向爱集微介绍:“高分辨率CIS的尺寸相对较大,针对这一尺寸面积较大的芯片,我们在晶圆级缝合技术等方面已经有了很多技术沉淀,从前些年的LCOS到现在的Micro OLED,到将来的Micro LED,对于生产微显示芯片尤其是在良率控制方面,我们已经有了一定程度的经验积累。”

  在增量技术方面,Tower也有着多维的技术创新。比如为了更舒适的佩戴体验和更长的产品使用寿命,微显示芯片的像素结构正在由电压驱动型向电流驱动型转变。针对电流驱动型像素电路的设计,Tower的微显示工艺平台特别提供耐压高达10V,同时漏电流控制在fA级别的晶体管,以及高密度低漏电的MIM电容,极大地增加了客户电路设计的灵活性。有了这些特殊器件的加持,客户设计出的微显示芯片可以亮度更高,功耗更小,使用时间更长。

  产业竞争并不总是一个从基础研究向产业化顺序展开的进程,强大的下游产业化能力,往往也会反向影响基础技术路线的走向。主打成熟工艺的模拟类IC制造的Tower,也不断在各个细分赛道中不断突破精与尖的边界,以此来拓宽产品终端应用场景。

  对于Tower的下沉和突破,可以从CIS产品本身和自身代工角色两个维度去审视。

  实际上,即便是在Tower所擅长的CIS领域,企业也更多承担着“幕后巨人”的角色,默默地服务客户。蔡圆在接受采访时表示:“(我们)提供的像素单元,是可以应用于各个领域的,尤其在特种CIS领域,Tower的名声更响一点,所以给大家知道得更多一点。”

  Tower在CIS领域的技术竞争力是业界有目共睹的,例如在堆叠式(Wafer Stacking)图像传感器结构上。蔡圆表示Tower很早就在8寸和12寸晶圆上实现了背照式(BSI)工艺结构。实际上BSI工艺结构可以看做是实现堆叠式,尤其是采用混合互联(Hybrid Bonding)的堆叠式结构工艺的“前提”。

  堆叠式结构的出现为CIS带来了全新的可能——通过将模数转换器以及片上处理电路(如ISP)挪到像素层下方的逻辑层中,从而使CIS模拟为主的部分和数字为主的部分分别采用最优的工艺制程,在更小的芯片面积下实现更强的读出性能,这对于需要全局快门(Global Shutter)和高帧率性能的3D成像用CIS产品尤为重要。

  蔡圆向爱集微举例道:“前两年我们跟客户联合发布的5μm的iToF芯片,它性能是非常好的。”在这款于2021年发布的iTOF图像传感器上,Tower实现了在5μm的像素尺寸中做到了像素级铜端子直接互联,其中互联端子本身最小宽度仅有0.79μm,而端子间的最小间距更是做到了2.5μm。TechInsights曾在去年公开表示这款堆叠式图像传感器是他们“所见过的最小互联端子间距”。

  另外,生产大尺寸CIS也是Tower的绝活。如前所述,相较小尺寸小像素的CIS产品,大尺寸CIS产品的良率挑战会更加严峻:“对于这种大尺寸芯片的生产来说,它的良率控制其实是非常困难的,它只要这一块区域内任意落下一个灰尘点或者是粒子,它的性能就会受到影响,就会有良率的损失。”

  同时,超大尺寸的图像传感器可能会超过光掩模本身覆盖的尺寸,所以往往需要缝合设计,而对于缝合设计来说,共同设计传感器架构和晶圆级缝合方案非常重要,需要确保图像传感器设计和缝合方案满足所有机械、光学和工艺要求。目前Tower的缝合工艺能够做到一张12寸晶圆上出1到2颗Die,这在业界是一种非常稀缺的特种工艺。

  更值得一提的是,Tower作为代工厂还向客户提供像素单元IP,即通常所说的Pixel。蔡圆告诉爱集微:“不少芯片设计公司真的很想做图像传感器类的产品,他们电路设计能力很强,但是缺乏像素单元设计和制造工艺紧密结合的开发能力,这些客户可以直接使用Tower提供的像素单元去开发他们的图像传感器产品。”

  除此之外,未来硅基微显示技术的挑战性有哪些,这些挑战又和代工厂的功能演进有何关联?蔡圆举了一个非常有代表性的例子。虽然现在的Micro OLED工艺是基于CMOS工艺研发,但随着客户对产品亮度和分辨率的要求慢慢的升高,对工艺所提供的高压晶体管漏电的要求也越来越高,并且需要用更高密度的电容。另外,产品进入量产以后的晶圆良率会直接影响到该类产品的成本,甚至对未来元宇宙潜在的市场体量至关重要。

  新雨之后草木丛生。代工厂的角色和产品一样,也在不断演化,Tower通过产品的迭代革新,也在革新自身的生态定位。

  如果把全球各大主要的芯片制造商比作一座大型集市,少数头部几家在最前沿工艺节点卷杀激烈的IDM和代工厂可谓占据了车水马龙的闹市区,是聚光灯下的常客。

  几十年来,Tower一直坚守模拟集成电路的制造和研发,为客户不断提供高价值服务。在SOI、SiGe、PMIC以及CIS领域的不断深耕,眼下更是在硅基微显示市场蓄势待发,实现了模拟与价值的双向奔赴——Where analog and value meet,企业的slogan精准表达了对隐形冠军的追求和定位。

  另外,Tower纯代工厂的身份,保证了企业在芯片定制和产品交付的灵活性。以图像传感器生产为例,大多数国际厂商采用了IDM经营模式,在这一领域有着很高的市场占有率,也建立其自身技术护城河和产品议价权,在设计和工艺制造方面结合紧密。但IDM模式毕竟船大难以掉头,作为纯代工厂的Tower,可以针对芯片设计公司厂商的需求去定制工艺,而且覆盖面更广。中国大陆的半导体产业生态一大突出特色就是孵化出了一批极具有市场竞争力的芯片设计公司企业,这也给了Tower以广阔的市场施展空间。对此,蔡圆向爱集微阐述:“我们可以给客户提供本地化的技术支持,跟客户需求更紧密地绑定,我们有一支优秀的工程师团队,有着二十年以上的工作经验,对图像传感器和硅基微显示的产品和工艺需求非常了解。但同时我们不跟作为客户的芯片设计公司竞争,而是连起手来以更加灵活的姿态去和IDM大厂比拼。”

  公开资料显示,目前Tower的晶圆厂产线主要集中在以色列、美国和日本这三个国家。Tower在2021年6月宣布和意法半导体的意大利Agrate R3 12英寸晶圆厂达成合作协议。随后,Tower和英特尔在美国新墨西哥州11X晶圆厂合作开发差异化的PMIC制造方案。这些灵活、有弹性的合作模式,让Tower可以敏锐捕捉市场前沿动态进行扩产,并且保证晶圆厂开工率的最优解。

  在神学意义上,流着奶与蜜的应许之地是以色列人的家园。70多年以来,受国际地缘政治等因素影响,以色列保持了高度的危机感,很早就确立了科技立国为本的发展原则。成熟的人才培养体系,搭配可靠、有前瞻性的研发规划,辅以灵活的商业头脑和雄厚的资本投入,让以色列这片并不广袤的土地上孵化出了大批的半导体公司。Tower即是这片科创沃土上盛开的最鲜艳的花朵之一。

  对此,蔡圆深有感触,她谈道:“我们以色列的同事创新思维非常强,受到客观环境的影响,他们只有不断创新、不断改变才能生存下去。他们思维很灵活,愿意听取客户对产品市场的需求和变化,配合客户的要求去做调整,同时帮客户审查创新方案落地的可行性。他们经验丰富,高度专注,以图像传感器部门为例,我们的工程师团队最年轻的也有20年的工作经验。”

  总之,灵活且富有弹性的经营模式,雄厚的细分赛道技术积累和迭代规划,充满创新和高度纪律性的工程师文化,保证了Tower在充满各种暗礁和险滩的全球芯片制造行业中屹立潮头,让“好汉都有晶圆厂”的著名论点被重新定义和赋予了新的时代意义。

  集微网报道 (文/陈炳欣)自去年11月ChatGPT掀起热潮以来,用大模型设计(或者辅助设计)芯片就被广泛讨论。日前,英伟达宣布发布一款自研430亿参数的大模型,命名为“ChipNeMo”,主要应用于辅助芯片设计;中科院计算所等机构也推出全球首颗完全由AI设计的CPU芯片“启蒙1号”。可以看出,大模型未来将越来越深入地干预到芯片设计当中。这对芯片设计以及EDA工具行业的运行必将会带来更多新的变化。

  生成式AI无疑是2023年的最大热点,当前围绕这一领域的竞争已趋于白热化,全球从百模大战朝着千模大战的规模奋进。根据近期的报道,英伟达也跨界进入这一领域,宣布开发出一款命名为 ChipNeMo的大模型,主要应用于辅助芯片设计,目标是提高芯片设计团队的工作效率。英伟达首席科学家Bill Dally表示,他们的目标是使芯片设计师更加高效。即使通过ChipNeMo只能提高几个百分点的生产率,也是值得的。

  据了解,ChipNeMo内置了一个聊天机器人,可以回答有关GPU架构和设计的问题,帮助工程师在早期测试中快速找到技术文档。同时,ChipNeMo还可以完成DEA脚本生成和Bug总结分析等功能,实现芯片设计的辅助。

  更令人关注的是,今年年中,中科院计算所等机构还推出了世界首款完全由AI设计的CPU芯片,性能达到与Intel 486相当的水平。据报道,中科院计算所的处理器芯片全国重点实验室及其合作单位的这款无人工干预、全自动生成CPU芯片——启蒙1号,基于32位RISC-V CPU,可运行Linux操作系统,相比GPT-4目前所能设计的电路规模大4000倍。

  众所周知,芯片设计是一项非常耗费人力和资源的工作,通常需要由工程师团队编写代码(如Verilog、Chisel或C/C++等),再在EDA软件的辅助下生成电路逻辑。工程师还要针对编写出的代码,反复测试、功能验证和性能/功耗优化。这样的复杂过程往往需要上百人的团队数月甚至数年才能完成。

  而大模型的加入或者辅助设计有望在很大程度上优化这一过程,节省成本和人力,加快产品上市周期。英伟达创始人兼首席执行官黄仁勋认为芯片制造是加速计算和AI计算的“理想应用”;AMD首席技术官Mark Papermaster透露,目前AMD在半导体设计、测试与验证阶段均已开始应用AI,未来计划在芯片设计领域更广泛地使用生成式AI。

  EDA软件是芯片设计中的重要一环,可以帮助工程师更好地完成芯片的设计、仿真验证和逻辑综合等任务,确保芯片的功能和性能符合要求,提高芯片设计的效率和准确性。随着大模型越来越深地卷入芯片设计领域,对于EDA行业也将带来相应的改变。

  芯华章首席市场战略官谢仲辉就表示,随着大语言模型LLM的逐步成熟,在EDA领域应用大模型智能生成内容确实是一个重要的研究方向,包括代码助手、错例报告总结、验证步骤生成、工具链调用、对话式知识库检索等,都有很大的潜力。

  新思科技也表示,AI+EDA让EDA工具更智能,AI技术不仅能自动执行原先芯片设计流程中大量重复且繁杂的工作,还可以帮助人类提高设计的决策效率,开发者便能够专注于最核心也最有价值的领域——芯片创新,而这也降低了整体能源的消耗。此外,AI+EDA可以大幅降低设计工具的使用门槛,解决芯片开发人才短缺的挑战。

  事实上,以生成式语言类大模型为代表的AI辅助设计,在EDA的应用中一直有研究,突出表现就是一些工具自动化和智能化方面的发展,也确实在某些方面提升了EDA工具的效率。

  谢仲辉强调,这是因为EDA后端的设计和制造涉及到的数据类型,天然地可以被表示为几何图形,因此非常适合把原本应用在图像上的机器学习和深度学习技术做横向的迁移。事实上,在过去几年里,图像已经成为人工智能技术在EDA工具中应用的代表性领域。从之前的市场情况来看,人工智能技术在后端的布局、OPC(光学邻近校正)这两方面的落地最快。部分原因正是因为这两个领域与AI特别擅长的图像处理相关性较高。

  在此情况下,很多EDA企业都将大模型作为一个重点研究方向,探索EDA与AI的融合。比如新思科技今年4月就推出了业界首款全栈式AI驱动型EDA解决方案Synopsys.ai,能够让开发者从系统架构到设计和制造,芯片开发的各个阶段都能采用AI技术。据了解,截止9月份,DSO.ai已经成功实现超过270次商业流片。未来新思科技还将推出更多功能,并针对模拟电路设计进行优化,目标到2024年覆盖全流程。

  国内厂商方面,芯华章也在占据芯片研发过半的仿真验证、调试等多个工具中融入了AI技术的部分特征,不断推进“EDA+AI”的精确性、可解释性和安全性。比如,在数据的标准化和一致性方面,由于芯华章的工具都基于统一的底层架构和数据库进行开发,利用这一特点,在仿真验证等环节整合AI技术,可以针对性的、可拓展的、高效标准的收集和处理数据,让数据发挥更大的作用。

  尽管前景看好,但就当前形势来看,大模型设计芯片还很难取得如外界想象中那样的大幅突破。大模型目前在设计规模、精确度、可重用、安全性与解释性方面仍面临很多难题。对于EDA厂商来说同样如此,无论是对大模型的预训练、领域适应性训练还是微调,都存在难以获取足量的文本类学习数据的难题。

  对此,谢仲辉表示,大模型的优势主要在于能接收并理解自由度极高的人类自然语言,能从现有庞大的信息中归纳、整理进而形成有效的信息压缩,以及基于上述条件组织并生成最合理答案的能力。其体现出的强大的理解和生成能力,在某些代码生成的应用上达到了不错的效果,比如能够生成一些基本的和定义清晰的函数、能够与用户进行简单的代码编辑等。这也许会演化出推动EDA更加智能化发展的功能。但如果在更复杂的芯片甚至系统级创新的复杂架构中,仍然需要更高层次的算法优化、结构优化、软硬件协同等。

  也就是说,大模型还没有与EDA设计流程形成深入的结合,更多的是通过对现有的用户私有数据和开源数据的利用将一些通用的方案迁移到了EDA的领域里,如之前提到的代码生成、报告总结等。因此,专业的EDA公司需要参与推动技术的进一步发展,让EDA工具流程与大模型、数据三者能形成有机结合,这样才能更全面推动AI辅助芯片设计。

  新思科技则指出,对于数据中心、智能驾驶、消费电子、个人电脑与游戏,移动通信与5G等关键领域,AI技术在效率、用户体验和解决问题方面提供了一个全新的机遇。当前,随着生成式AI的加速发展和产品上市周期的缩短,这些领域中应用的创新速度会越来越快,而半导体行业面临的挑战也指数级增长。在新思科技看来,利用AI技术提高芯片开发系统层面的可见性和自动化根源至关重要,在设计、验证和测试工具的自动化过程中也仍然有诸多可以提升之处。比如在工具的易用性方面,新思科技一直致力于让芯片设计工具变得像“美图秀秀”那样简单,这不仅能大幅释放芯片开发团队的生产力,还能催化更大范围的人群加入到芯片设计领域,以更广阔的创造力共同推动数智未来加速到来。

  值得注意的是,大模型在芯片设计领域的应用发展,或将为中国EDA行业带来新的机遇。对此,谢仲辉认为,国产EDA在成熟工具方面距离国际先进水平还有差距,但在新技术发展上却具有一定后发优势,可以在新技术融合上实现快速进步。其实不只是大模型,在整个AI、云原生等新技术的结合上,国产EDA都有自己的后发优势。一方面,国产EDA会有更少的技术包袱,是在一个全新的架构上做研发,避过一些前人踩过的坑,调整的成本会更小;另外,作为后发者在拥抱新技术上的创新动力会更强,更加渴望抓住“换道超车”的机遇。

  整个大模型时代最突出特征就是大,数据大、模型大、成本大,其核心是预训练,在大量数据的投喂下完成智能化学习。但大模型的知识是隐性地存储在神经网络参数中的,是模糊、不可解释的,所以偶尔会产生看似正确的错误,“幻觉”甚至成为大模型的一个固疾。但是,这种情况在成本高昂、精确度要求高的芯片设计行业是不能允许的。

  为了更好拥抱地大模型,这就需要在开放性、数据标准化等几个方面进行加强。谢仲辉表示,芯华章一直提倡的EDA 2.0,这些也正是新一代EDA工具应该具备的特征。具体而言,开放性是指,针对大模型的应用场景和需求,设计开放的、可扩展的模型架构和接口,以支持训练数据的快速整合,同时提高模型的灵活性和可扩展性,使其能够适应不断变化的应用需求。数据标准化是指,为了降低大模型训练和理解数据的成本,不同点工具的数据需要统一的格式,打破彼此的壁垒。第三点是可解释性,即针对大模型的复杂性和黑箱特性,通过可解释性算法和技术来提高模型的可解释性和透明度。这有助于开发人员更好地理解模型行为,提高模型的可信度和可靠性。此外还有构筑良好的算力基础。大模型需要更大的训练和推理算力,需要更有效的打破内存墙,因此也需要国产AI和GPU芯片厂商发力,尽快提高国产AI算力和效率。

  集微网消息英伟达即将在中国市场推出第三款算力芯片H20。不过,英伟达并未如外界此前传出的那样在11月16日发布H20系列。据最新报道,目前为止国内厂商还没拿到H20的样卡,最快也要到本月底或者下个月中旬。有关人士透露,美国有可能还会修改政策,这些因素估计英伟达也都需要仔细考虑进去。

  去年10月,美国政府宣布实施最初的人工智能芯片出口限制。英伟达由于无法向中国市场提供A100和H100人工智能处理器,专门为中国市场A800和H800。今年10月17日,美国商务部于发布了一系列新的芯片出口限制,扩大了对高级人工智能芯片的定义,以避免转售给中国,其中只要芯片总算力大于或等于4800TOPS,或芯片总算力低于4800 TOPS但性能密度达到一定阈值都将受到管制。新的限制措施定于11月16日生效。

  伯恩斯坦(Bernstein)分析师斯泰西·拉斯贡(Stacy Rasgon)在本月的一份报告中表示:“虽然之前的解决方案只需要对部件的内存带宽进行小幅调整,但这一次,控制的性质迫使整体性能大幅下降。”但他认为,H20芯片可能对中国客户仍有吸引力。

  山西证券认为,从训练角度看,H20算力相较英伟达H100、A100均有较大差距,但多芯片集群后英伟达架构下的互联速率和CUDA生态具有明显优势。对于国内大模型来说,千亿规模下可以通过堆叠芯片数满足算力,量上给予H20想象空间。另一方面,堆叠2-3张H20可以获得一张A100卡的性能,由此带来性价比的降低。

  集微网消息,美国商务部将以30亿美元预算,推动振兴美国国内芯片先进封装产业的方案,针对封装产业的首轮补贴资助计划将于明年初公布。这是美国扩展半导体供应链的重要举措。

  台积电在美国凤凰城投资400亿美元设厂。亚利桑那州州长Katie Hobbs此前表示,正与台积电讨论是否在投资案里加入封装产能。SK海力士已宣布,将投资150亿美元在美国建设先进封装厂。

  该促进美国国内封装产业方案的“国家先进封装计划”,是2022年通过《芯片和科学法案》衍生出来的第一个主要研发投资。美国芯片法案的目标就是要复兴美国本土的芯片制造,这关乎关键电子零组件的研发。封装方案经费来自研发类别,与芯片制造奖励分属不同的资金项目。

  芯片封装是将个别芯片组合起来,供各项产品利用的产业,封装后的芯片组件可用于手机、汽车等商业产品,也可用于军事用途。

  美国商务部表示,美国目前只占全球芯片封装产能的3%,中国大陆占比达38%,引发美国对受到损害的担忧。

  美国商务部副部长Laurie Locascio近期表示,“芯片在美国制造后,却还要运到国外去进行封装,对供应链和国家安全都带来风险。我们实在不能接受”。她说,在2030年之前,美国将会拥有多个先进封装厂,具备商业规模的产能,为最精密的芯片进行先进封装,成为该产业的全球领导者。

  集微网消息,11月21日,市场监管总局发布关于附加限制性条件批准博通公司收购威睿公司股权案反垄断审查决定的公告。市场监管总局依据《中华人民共和国反垄断法》对博通公司(以下简称博通)收购威睿公司股权案进行了经营者集中反垄断审查,决定附加限制性条件批准此项经营者集中。

  今年10月底,博通表示,预计拟收购VMware的交易“仍将很快完成”,但无论如何都要在合并协议到期前完成。两家公司之间的交易协议将于11月26日到期。据了解,如果未能及时获得监管批准而导致收购终止,博通按照协议条款有可能要支付15亿美元的终止费。

  博通去年5月表示,以610亿美元股权和其余债务的方式收购VMware,旨在实现企业软件多元化。

  现在,博通与威睿公司宣布,已获得所有必要的监管批准,计划于11月22日完成收购交易。

  2022年9月6日,市场监管总局收到本案经营者集中反垄断申报。经审核,市场监管总局认为该申报材料不完备,要求申报方予以补充。2023年4月25日,市场监管总局确认经补充的申报材料符合《反垄断法》第二十八条规定,对此项经营者集中予以受理并开始初步审查。5月25日,市场监管总局决定对此项经营者集中实施进一步审查。8月22日,经申报方同意,市场监管总局决定延长进一步审查期限。9月25日,市场监管总局对本案作出中止计算审查期限的决定;并于11月17日恢复计算审查期限。目前,本案处于进一步审查延长阶段,截止日为12月13日。市场监管总局认为,此项集中对全球和中国境内非公有云虚拟化软件、光纤通道适配器、存储适配器和以太网网卡市场具有或可能具有排除、限制竞争效果。在审查过程中,市场监管总局征求了有关政府部门、行业协会、同业竞争者和下游客户意见,同经济、法律以及行业专家深入座谈,与其他司法辖区交流合作,了解相关市场界定、市场结构、行业特征和集中对各方面影响等信息,聘请独立第三方机构对本案竞争问题进行经济分析,并对申报方提交的文件、材料真实性、完整性和准确性进行了审核。

  集微网消息,英伟达预计,随着供应链问题缓解,第四财季营收将高于华尔街目标,但中国市场销售前景不明朗令该股承压。该股今年以来已上涨超过240%。英伟达将制造业务外包给台积电等代工商,该公司表示,预计其人工智能(AI)芯片的供应每个季度都会有所改善,将提前付款并下不可取消的订单,以确保供应商优先考虑其芯片。

  对人工智能服务器的需求迅速增长,研究公司TrendForce估计今年的出货量将增长约40%,这要归功于人工智能服务器在OpenAI的ChatGPT等产品中的应用。

  但人工智能芯片市场的火爆是在美国大幅扩大对英伟达向中国销售产品的出口管制的背景下展开的。尽管英伟达表示,预计短期内其他国家的需求将足以弥补销售损失,但其承认,如果规则进一步收紧,“我们的竞争地位已受到损害,长期来看,我们的竞争地位和未来业绩可能会受到损害”。

  英伟达还面临着巴以冲突的风险,英伟达网络业务的总部位于以色列。该部门的设备用于人工智能超级计算机,其销售额同比增长 155%,因为该公司销售了更多设备来支持其超级计算机系统。冲突影响到英伟达员工的工作。

  尽管美国扩大了对华芯片出口限制,但分析师预计英伟达的订单至少要到明年8月才会完成,因为对其人工智能芯片的需求,尤其是在美国,继续供不应求。

  该公司预计本季度收入为200亿美元,上下浮动2%。伦敦证券交易所集团 (LSEG) 调查的分析师预计营收为178.6亿美元。

  调整后第三季度收入增长206%,达到181.2亿美元,而预期为161.8亿美元。

  季度数据中心收入增长41%至145.1亿美元,而游戏收入增长15%至28.6亿美元。

  但英伟达也发出了一些警告,称该公司数据中心部门销售额的四分之一来自中国,而中东等其他地区目前也受到美国新出口管制的影响。

  英伟达首席财务官Colette Kress表示:“我们预计2024财年第四季度我们对这些目的地的销售额将大幅下降,但我们相信其他地区的强劲增长将足以抵消这一下降。”

  消息人士和分析师称,英伟达已经为中国市场推出了三款新产品,以应对美国扩大出口管制的情况。 Insider Intelligence分析师Jacob Bourne表示,这些专注于中国市场的芯片可能会消耗英伟达的重要研究资源,而这些产品最终可能会像第一轮中国市场芯片一样被禁止。

  上周,英伟达还推出了一款名新款AI芯片H200,该芯片将提供比当前顶级H100芯片更优越的性能。H200包括额外的高带宽内存(HBM),这是芯片中最昂贵的部件之一,它决定了可以快速处理多少数据。

  包括Alphabet的谷歌、亚马逊以及微软在内的主要科技公司除了购买英伟达的硬件用于自己的数据中心外,还宣布推出由内部设计团队生产的人工智能芯片。

  构建定制芯片可以花费数亿美元并需要数年时间,但使主要云公司能够包含专门与其人工智能需求相关的功能。微软本月早些时候推出了两款定制设计的计算芯片,其中一款可以运行大语言模型。

  集微网消息据报道,在芯片自研方面,理想正在研发用于智能驾驶场景的AI推理芯片,以及用于驱动电机控制器的SiC功率芯片。目前,理想正在新加坡组建团队,从事SiC功率芯片的研发。

  在职场应用LinkedIn上,已经可以看到理想近期发布的五个新加坡招聘岗位,包括:总经理、SiC 功率模块故障分析/物理分析专家、SiC功率模块设计专家、SiC功率模块工艺专家和SiC功率模块电气设计专家。

  但用于智能驾驶的AI推理芯片是理想的研发重点,而研发整个SoC中最关键的环节是推理模型加速单元NPU的前端设计。

  在组织架构上,理想芯片团队属于“系统与计算群组”,该群组负责人为理想CTO谢炎。芯片团队下设NPU架构、SoC、后端设计、验证等部门,芯片研发负责人为罗旻,职级为高级总监,向谢炎汇报。

  其中,理想芯片部门NPU架构的研发负责人陈飞于2022年4月加入理想,目前的职级为资深专家。陈飞本科毕业于清华大学工程物理系,博士毕业于美国特拉华大学电子与计算机工程系,曾在英特尔、ARM、苹果和谷歌从事CPU和其他芯片的设计开发工作。

  理想汽车官网显示,其正在通过社会招聘渠道招募NPU有关技术人才,列出的全职岗位包括 NPU 运行时软件工程师、NPU IP 设计、NPU调度器技术专家、NPU架构师和NPU验证工程师,工作地点均位于上海浦东新区。

  据悉,目前理想芯片部门的总体人员规模在160人以上,分布在北京、上海,美国硅谷和新加坡,一些部门已经开始执行 “大小周”(单双休循环)机制。

  集微网消息,天眼查App显示,近日,富联科技(武汉)有限公司因编造虚假计税依据,违反税收征收管理法等,被国家税务总局武汉市税务局第二稽查局拟罚款2万元。处罚事由显示,当事人将部分非直接从事研发人员费用列入研发人员人工费用,进行加计扣除。其中,2021年度涉及8人费用88万余元,2022年度涉及15人费用105万余元。根据规定,当事人企业所得税超范围加计扣除的研发费,应调增为应纳税所得额。

  股权全景穿透图显示,富联科技(武汉)有限公司由富联精密电子(郑州)有限公司全资持股,后者为工业富联全资子公司。

  今年10月,税务部门依法对富士康集团在广东、江苏等地的重点企业进行税务稽查,自然资源部门对富士康在河南、湖北等地的重点企业用地情况做现场调查。

  对此,富士康母公司鸿海集团于10月22日下午紧急发布重大消息声明表示,“合法合规为鸿海在全球各地的根本原则。集团会积极努力配合相关单位的作业办理。我们在世界各地开展业务的地方遵守法律是鸿海科技集团(富士康)的根本原则。我们将积极努力配合相关的单位做好相关工作和运营。”

  SiP China 2023上海站,芯与半导体再次担任大会主席并发表演讲

  杰华特发布支持Intel®第12和13代酷睿™处理器的整体Vcore解决方案