Ternyata Begini Cara Kerja ChatGPT, Gunakan Ribuan GPU

Seperti diketahui, OpenAI merupakan mitra kerja sama Microsoft sejak 2019 lalu.

KOMPAS.com/ Galuh Putri Riyanto
lustrasi ChatGPT, chatbot berbasis kecerdasan buatan (artificial intelligence) bikinan OpenAI 

TRIBUNPONTIANAK.CO.ID - ChatGPT, chatbot bikinan OpenAI, ternyata menggunakan ribuan kartu grafis (GPU) agar bisa bekerja.

Serta menjawab berbagai pertanyaan pengguna dengan bahasa yang mudah dimengerti,

ChatGPT mengandalkan suatu infrastruktur atau mesin kecerdasan buatan (AI) milik Microsoft, yaitu Azure, yang ditopang puluhan hingga ribuan unit pengolah grafis (GPU) bikinan Nvidia.

Seperti diketahui, OpenAI merupakan mitra kerja sama Microsoft sejak 2019 lalu.

Kerja sama antara kedua perusahaan ini diperpanjang pada Februari 2023 kemarin via investasi senilai 10 miliar dolar AS (sekitar Rp 151 triliun).

OpenAI Resmi Perkenalkan Kecerdasan Buatan Versi Terbarunya

Dengan kerja sama ini, tak aneh apabila OpenAI bisa menggunakan infrastruktur Microsoft Azure untuk menjalankan ChatGPT.

Nah, dalam sebuah postingan blog, Microsoft menjelaskan bagaimana sebenarnya ChatGPT berjalan di atas puluhan hingga ribuan GPU Nvidia, yaitu dengan model GPU AI Nvidia A100 atau H100, yang saling terhubung di jaringan Microsoft Azure.

Microsoft Head of Product for Azure High-Performance Computing and AI, Nidhi Chappel menjelaskan bahwa infrastruktur Azure dipakai OpenAI untuk melatih model AI ChatGPT supaya bisa merespons banyak hal.

Dalam prosesnya, beban kerja ChatGPT, terutama setelah menerima jawaban atau kueri pengguna, akan diproses secara merata ke puluhan hingga ribuan GPU Nvidia, yang ada di dalam infrastruktur Azure.

Nantinya, masing-masing GPU yang ada di satu infrastruktur akan saling bertukar informasi secara cepat, sehingga ChatGPT bisa memberikan respons yang akurat, tentunya dengan bahasa yang mudah dimengerti dalam waktu singkat.

Mengandalkan jaringan InfiniBand Tidak sekadar menghubungkan ribuan GPU AI saja, pemrosesan model AI yang digunakan ChatGPT ini juga mengandalkan sistem atau jaringan Microsoft Azure yang bernama InfiniBand.

Jaringan ini diklaim Chappel dapat menghubungkan ribuan GPU untuk menopang sekaligus mengakselerasi kinerja AI.

"Karena pemrosesan AI ini membutuhkan ribuan GPU, kami harus memastikan bahwa kami memiliki infrastruktur dan jaringan yang cocok di sistem inti (backend) kami.

Ini Fitur WhatsApp Yang Siap Meluncur Namun Mirip Dengn Punya Telegram

Dengan begitu, kami bisa menunjang komunikasi lebih cepat secara terus-menerus," jelas Chappel, dikutip dari Microsoft.com pada Rabu 15 Maret 2023.

"Pemrosesan ini tidak semudah seperti Anda membeli banyak GPU dan berharap aneka hardware tersebut bisa bekerja dengan mumpuni apabila digabungkan satu sama lain.

Sebab, beban kerja AI seperti ini hanya bisa berjalan optimal apabila ada sebuah sistem yang bisa mengoptimasi suatu performa dari model pembelajaran AI," imbuh Chappel.

Ke depannya, Microsoft melanjutkan bahwa kapasitas ribuan GPU yang ada di dalam infrastruktur Azure akan bertambah seiring berjalannya waktu.

Penambahan ini bukan dari Microsoft semata, melainkan juga dari mitra-mitra mereka.

Adapun penggabungan kapasitas atau GPU dari mitra lain ini sangat memungkinkan untuk dilakukan, lantaran tim internal dan mitra Microsoft menggunakan satu sistem atau jaringan yang serupa.

Dengan begitu, jaringan InfiniBand Network yang bisa mempercepat kinerja AI tadi, yang ditopang ribuan GPU buatan Nvidia, bisa berkembang dan bisa menjangkau beban AI yang lebih besar lagi, serta bisa dipakai lebih banyak orang di masa depan. (*)

Sumber: Kompas.com
Berita Terkait
  • Ikuti kami di
    AA

    Berita Terkini

    © 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
    All Right Reserved