Stephen Wolfram, seorang ilmuwan komputer, fisikawan, dan pengusaha asal Britania Raya yang dikenal karena karyanya di bidang komputer sains, matematika, dan fisika teoritis beberapa waktu lalu menjelaskan dengan begitu rinci tentang apa itu ChatGPT—dan mengapa ia bisa sepintar itu—dalam sebuah tulisan yang teramat panjang.
Ia juga melakukan sesi live streaming di YouTube menjelaskan hal yang sama. Namun, durasi videonya berlangsung hingga lebih dari tiga jam, jadi kami akan mencoba merangkumnya untuk kamu dengan bahasa yang sederhana.
Algoritma Rumit ChatGPT Menyederhanakan Jawaban untuk Pengguna
Stephen Wolfram memulai dengan menjelaskan apa itu ChatGPT dan bagaimana cara menggunakannya, dilanjut dengan keberhasilan ChatGPT memberikan jawaban kompleks dan rumit dengan cepat dan akurat berkat algoritma dan basis data informasi superbesar yang ditanamkan ke dalamnya.
Beda Prompt, Beda Hasil
Stephen Wolfram menekankan bahwa pengaruh probabilitas kata akan sangat berpengaruh pada hasil yang diberikan. Karena itu, penting untuk memberikan instruksi yang jelas dan detail untuk menghasilkan jawaban yang diharapkan.
Probabilitas ini ditentukan berdasarkan data pelatihan yang besar, yang terdiri dari banyak contoh teks yang ditulis manusia.
ChatGPT Menggunakan Jaringan Saraf Tiruan
Jaringan saraf tiruan (JST) adalah model matematika yang terinspirasi oleh otak manusia. JST terdiri dari banyak unit pemrosesan yang terhubung satu sama lain dengan bobot. Bobot ini menentukan bagaimana informasi mengalir melalui JST.
ChatGPT menggunakan JST untuk mempelajari bagaimana kata-kata berhubungan satu sama lain. JST dilatih pada data pelatihan yang besar, yang terdiri dari banyak contoh teks yang ditulis manusia. Data pelatihan ini digunakan untuk menyesuaikan bobot JST, sehingga JST dapat mempelajari bagaimana menghasilkan teks yang mirip dengan tulisan manusia.
Secara lebih rinci, ChatGPT menggunakan JST untuk mempelajari probabilitas setiap kata yang mungkin muncul berikutnya. Probabilitas ini ditentukan berdasarkan data pelatihan. Misalnya, jika data pelatihan menunjukkan bahwa kata “anjing” sering muncul setelah kata “kucing”, maka JST akan mempelajari bahwa probabilitas kata “anjing” muncul setelah kata “kucing” adalah tinggi.
Meski begitu, model GPT memiliki perbedaan dengan otak manusia; otak menyimpan dan menghitung pada setiap neuron. Keberhasilan GPT terletak pada kemampuannya memahami dan menggunakan struktur bahasa manusia yang lebih teratur dari yang kita kira.
Tonton video selengkapnya di sini: