随着人工智能和机器学习技术的飞速发展,计算需求也呈现出爆炸式增长。传统计算架构在处理这些任务时遇到了效率和能耗方面的瓶颈。为探索更多的可能,英特尔提出了一种全新的计算范式——神经拟态计算。这种模仿人类大脑的工作方式,能够在效率和能耗上实现极大程度的突破。
起源与发展
早在2017年,英特尔就推出了首款神经拟态芯片——Loihi,据英特尔中国研究院院长宋继强介绍,从项目启动到现在,英特尔已在这一领域投入了超过七年的研究时间。Loihi项目最初是作为一个大学合作项目引入的,如今已发展成为世界上最大的集群式神经拟态计算系统,也就是日前英特尔刚刚发布的Hala Point。该系统在物理尺寸相对较小的同时,其在研究和应用方面都取得了显著进展。
在神经拟态计算的发展过程中,英特尔不断与全球顶尖的学术机构和研究机构合作,以推动技术的不断进步和应用的广泛化。通过这种合作,英特尔不仅加速了自身技术的成熟,还推动了整个行业的进步。
Loihi芯片采用英特尔14纳米制程技术制造,具有高度的集成度和高效的计算能力,其最大的特点在于其内部包含的最小计算单元,这些单元模拟生物大脑神经元的结构和运作。每个计算单元由计算逻辑和存储逻辑构成,形成了所谓的存算一体化架构。这些小单元相互连接,组成了神经元硬件阵列,放置在同一个核里。而一个芯片又包含多个这样的核。
随着技术的发展,英特尔又曾推出了Loihi 2芯片。Loihi 2在计算能力、速度和互连特性上都有显著提升,并且采用了更先进的Intel 4制程技术,使其晶体管密度和能效比大大提升。基于1152颗Loihi 2芯片打造 的Hala Point,其神经元规模提升了10倍以上,从1亿增加到了11.5亿,接近人脑神经元规模的1/80。其能效比高达15 TOPS/W,运行速度比实时模拟脉冲神经网络快200倍。
神经拟态计算的优势
神经拟态计算具有多项独特优势,其中最显著的是其高能效比。传统计算架构在处理大量数据传输时,往往会消耗大量能量。而神经拟态计算通过实现存算一体化和异步电路设计,避免了这种能量损耗。宋继强指出,神经拟态计算系统在工作时,只消耗局部的能量,而不需要全部电路同时运行。这种设计不仅降低了能耗,还提升了计算效率。
此外,神经拟态计算适合处理具有高稀疏性和局部并发性的任务。例如,英特尔的Pohoiki Springs系统在处理视觉识别类应用时,通过脉冲神经网络的调优,能显著降低能耗,同时完成复杂的计算任务。这种特性使得神经拟态计算在机器人和无人机等需要高能效和实时处理能力的应用中具有显著优势。
当前,神经拟态计算的应用主要集中在机器人、无人机和其他工业类型的应用中。英特尔通过建立神经拟态研究社区(INRC),与全球的学术界和产业界合作,共同探索神经拟态计算的应用潜力。INRC成员包括一些世界500强企业和创业公司,他们针对具体的算法和应用进行测试,推动神经拟态计算技术的实际应用。
宋继强还强调,英特尔的神经拟态计算不仅仅是硬件的创新,还需要一个强大的软件生态系统来支持。为此,英特尔开发了一系列的工具和库,以帮助开发者更容易地在神经拟态硬件上实现他们的算法。这些工具和库不仅降低了开发的复杂度,还提高了应用的效率。
虽然目前神经拟态计算在大模型处理方面还存在一定的挑战,但宋继强表示,英特尔正在积极探索这方面的可能性。未来,随着硬件架构和软件堆栈的不断优化,神经拟态计算有望在更多领域实现规模化应用。例如,在医疗领域,神经拟态计算可以用于实时处理和分析医疗数据,提高诊断的准确性和效率;在金融领域,它可以用于高频交易和风险分析,提供更快更准确的决策支持。
结语
英特尔的神经拟态计算芯片代表了未来计算技术的一个重要方向。通过模拟生物大脑的工作方式,这些芯片在能效比和计算效率上取得了显著突破。随着技术的不断发展和应用场景的拓展,神经拟态计算有望在各个领域掀起一场革命,为人工智能和机器学习的进一步发展提供强大的支持。正如宋继强所言,神经拟态计算的前景令人期待,其在研究和应用方面的持续推进,必将带来更多惊喜和突破。
英特尔在神经拟态计算领域的探索和创新,显示了其在引领未来计算技术发展方面的决心和能力。随着时间的推移,神经拟态计算将会在更多实际应用中展示其潜力。