Generative artificial intelligence AI war, "Ang demand ng AI chip ay sumasabog"

Nakakaakit ng atensyon ng merkado ang mga produkto ng serbisyo ng serbisyong artipisyal na artificial tulad ng ChatGPT at Midjourney. Sa backdrop na ito, ginanap ng Korea Artificial Intelligence Industry Association (KAIIA) ang 'Gen-AI Summit 2023′ sa COEX sa Samseong-dong, Seoul. Ang dalawang araw na kaganapan ay naglalayong isulong at isulong ang pagbuo ng generative artificial intelligence (AI), na nagpapalawak sa buong merkado.

Sa unang araw, simula sa keynote speech ni Jin Junhe, pinuno ng artificial intelligence fusion business department, malalaking kumpanya ng teknolohiya tulad ng Microsoft, Google at AWS na aktibong nagde-develop at naglilingkod sa ChatGPT, gayundin ang mga fabless na industriya na bumubuo ng artificial intelligence semiconductors na dumalo at gumawa ng mga nauugnay na Presentasyon, kabilang ang "Mga Pagbabago sa NLP na Dinala ng ChatGPT" ni Persona AI CEO Yoo Seung-jae, at "Pagbuo ng High-Performance, Power-Efficient at Scalable AI Inference Chip para sa ChatGPT" ni Furiosa AI CEO Baek Jun-ho .

Sinabi ni Jin Junhe na sa 2023, ang taon ng artificial intelligence war, ang ChatGPT plug ay papasok sa merkado bilang isang bagong panuntunan sa laro para sa malaking kumpetisyon ng modelo ng wika sa pagitan ng Google at MS. Sa kasong ito, nahuhulaan niya ang mga pagkakataon sa AI semiconductors at accelerators na sumusuporta sa mga modelo ng AI.

Ang Furiosa AI ay isang kinatawan ng fabless na kumpanya na gumagawa ng AI semiconductors sa Korea. Ang Furiosa AI CEO Baek, na nagsusumikap na bumuo ng pangkalahatang layunin ng AI semiconductors upang makahabol sa Nvidia, na humahawak sa karamihan ng merkado sa mundo sa hyperscale AI, ay kumbinsido na "ang pangangailangan para sa mga chip sa larangan ng AI ay sasabog sa hinaharap ”

Habang nagiging mas kumplikado ang mga serbisyo ng AI, hindi maiiwasang nahaharap sila sa pagtaas ng mga gastos sa imprastraktura. Ang kasalukuyang A100 at H100 GPU na mga produkto ng Nvidia ay may mataas na performance at computing power na kinakailangan para sa artificial intelligence computing, ngunit dahil sa pagtaas ng kabuuang mga gastos, tulad ng mataas na pagkonsumo ng kuryente at mga gastos sa pag-deploy, maging ang mga ultra-large-scale na negosyo ay nag-iingat sa paglipat sa susunod na henerasyon ng mga produkto. Ang ratio ng cost-benefit ay nagpahayag ng pagkabahala.

Sa bagay na ito, hinulaan ni Baek ang direksyon ng teknolohikal na pag-unlad, na nagsasabi na bilang karagdagan sa parami nang parami ng mga kumpanya na nagpapatibay ng mga solusyon sa artificial intelligence, ang pangangailangan sa merkado ay upang i-maximize ang kahusayan at pagganap sa loob ng isang partikular na sistema, tulad ng "pagtitipid ng enerhiya".

Dagdag pa rito, binigyang-diin niya na ang spread point ng artificial intelligence semiconductor development sa China ay 'usability', at sinabi kung paano lutasin ang development environment support at 'programmability' ang magiging susi.

Binuo ng Nvidia ang CUDA para ipakita ang support ecosystem nito, at ang pagtiyak na sinusuportahan ng development community ang mga kinatawanng frameworks para sa malalim na pag-aaral tulad ng TensorFlow at Pytoch ay nagiging isang mahalagang diskarte sa kaligtasan para sa productization.


Oras ng post: Mayo-29-2023