最近,ChatGPT和各种人工智能AI绘图软件十分流行,而这些AI服务背后的云计算服务提供商页渐渐受到了更多的关注,例如ChatGPT背后的微软Azure。无论是大语言模型LLM的训练,还是每次用户通过文本框输入命令prompt来调用模型回答问题,都离不开云计算。今天来介绍分享一些任何职业/学术背景都可以从零开始学习云计算和AI的资源。
第一部分,先来讲一下云认证。用汽车来比喻的话,学习使用ChatGPT类似学习驾驶车辆,而学习云认证类似学习汽车维修手册,不是进入人工智能领域的必须,但能帮助初学者从本质上更好地理解人工智能。本系列会主要以Azure系列的服务为重点,但亚马逊aws和Google Cloud以及中国各大云服务商都会有类似的服务,知识和技能的转移性(transferability)很高。 如果是非计算机专业的朋友,建议可以从最初级的Azure Fundamentals AZ-900 或者aws certified Cloud Practitioner 开始准备。这个入门级别的认证课程,主要介绍了计算机云服务的基本概念以及厂商主要提供的服务,准备时间一般在1个月内(每周5-10小时)。认真地阅读/收看官方教程能掌握绝大多数考试内容。想要更有把握通过考试(一般是答对70%以上的选择题),可以在Udemy等在线教育平台上购买模拟考试题来练习。
第二,结合最近的一则新闻来聊聊人工智能云。ChatGPT背后的公司OpenAI最近计划推出“Foundry铸造厂”服务-客户可以租用独有的服务器来运行GPT3.5等服务,Azure AI 以及aws等云服务商也早已提供类似的云AI服务,例如web app开发商可以调用API在Azure的服务器上实现如手写识别的机器学习功能,而不需要依赖设备本身的性能。云服务的普及使得本地电子设备的网络传输速度逐渐成为最重要的性能指标,而大量的如AI对话,游戏渲染等计算任务可以在电力便宜稳定的服务器所在地实现,如有着充沛水电资源的地区。 Foundry的概念在芯片设计制造领域也早已有所运用,意味着芯片的实际代工制造和设计可以分开。例如英伟达Nvidia就是一家纯设计公司,绝大部分的Nvidia图像处理单元GPU芯片的实际生产是在台积电TSMC完成。业务的分离使得各个企业可以发挥自己的优势,使成本效率大大增加。 p.s. 文中提到的gpt3.5服务器(含100张显卡)价格 在每月$3万以内
第三部分,来讲讲云计算和人工智能摩尔定律,GPU和并行计算。摩尔定律(图一)是英特尔Intel创始人之一戈登·摩尔的经验之谈,其核心内容为:集成电路IC相同面积上可以容纳的晶体管Transistor数目在18个月到24个月便会增加一倍,因此处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。 虽然名为“定律”,但其只是根据20世纪中后期的发展趋势归纳而成。进入21世纪以后,以英特尔为代表的中央处理器CPU的发展趋势渐渐慢于摩尔的预测的。仅依靠单颗处理器的速度提升已无法满足日渐复杂的计算任务,比如3维图形的渲染(3D rendering)。 因此,英伟达Nvidia在1999年提出了硬件图形处理器(Graphics Processing Unit)的概念,以大量的只能完成某些特殊任务的微处理器,代替少量的通用处理器。软件方面,并行计算也从专业科学领域逐渐向大众领域流行。用一个可能不是最恰当的比方,CPU像是由4位特级厨师组成的小组,可以完成任何烹饪任务,而GPU像是用同样工资请来的128位三明治店的员工。GPU不能做很多事,像完成一些特定的菜,但如果任务是制作2000人份的三明治,GPU一定可以依靠并行计算比CPU完成得快许多。 GPU与并行计算的普及,也使得云计算成为了可能。计算机科学家在设计计算任务时通常会首先考虑能否将大任务拆分成能同时进行的更小任务,从而可以同时运行在服务商提供的大量数目的CPU和GPU上。
