Perusahaan AI sedang menjajaki teknik baru yang membuat algoritma berpikir lebih seperti manusia untuk mengatasi tantangan dalam penskalaan model bahasa yang besar.
Perusahaan AI, termasuk OpenAI, mulai meninggalkan filosofi ‘semakin besar semakin baik’ untuk melatih model. Sebaliknya, mereka mengembangkan teknik yang memungkinkan algoritme untuk ‘berpikir’ dengan cara yang lebih mirip manusia. Metode ini bertujuan untuk mengatasi tantangan seperti konsumsi energi yang besar, kegagalan perangkat keras, dan kelangkaan data yang telah menghambat kemajuan dalam model bahasa yang besar.
Model baru OpenAI, o1 , menggunakan teknik yang disebut ‘test-time compute’, yang memungkinkannya mempertimbangkan beberapa jawaban dan memilih opsi terbaik selama penggunaan. Pendekatan ini meningkatkan kinerja dalam tugas-tugas kompleks, seperti pemecahan masalah dan pengambilan keputusan, tanpa memerlukan pelatihan awal yang ekstensif. Noam Brown, seorang peneliti OpenAI, mengungkapkan bahwa ‘berpikir’ singkat pun meningkatkan kemampuan model secara signifikan.
Pergeseran di seluruh industri ini memiliki implikasi yang lebih luas untuk perangkat keras AI, terutama karena chip Nvidia sangat penting untuk pelatihan AI. Para ahli memperkirakan adanya peralihan ke server berbasis cloud yang terdistribusi untuk tugas-tugas inferensi, yang berpotensi membentuk kembali lanskap permintaan untuk chip. Investor terkemuka, seperti Sequoia dan Andreessen Horowitz, memantau perubahan ini dengan saksama karena dapat memengaruhi investasi dalam infrastruktur AI.





