Tahukah anda, bagaimana Cara kerja Chat GPT? Chat GPT adalah sebuah sistem yang menggunakan teknologi kecerdasan buatan untuk berkomunikasi dengan pengguna melalui teks. Chat gpt dapat menghasilkan teks yang relevan, kreatif, dan logis berdasarkan pesan yang diterima dari pengguna. Chat gpt juga dapat memahami dan berbicara dalam berbagai bahasa, seperti Bahasa Indonesia, Inggris, Mandarin, Jepang, Spanyol, Prancis, Jerman, dan lain-lain.
Cara Kerja Chat GPT dengan menggunakan sebuah model yang disebut generative pre-trained transformer (gpt). Model ini adalah sebuah jaringan saraf tiruan yang terdiri dari banyak lapisan yang saling terhubung. Model ini telah dilatih dengan menganalisis jutaan teks dari internet dan mempelajari pola-pola bahasa yang ada di dalamnya. Dengan demikian, model ini dapat mengenali konteks, makna, dan tujuan dari teks yang diberikan.
Ketika chat gpt menerima pesan dari pengguna, model ini akan mencari teks yang paling cocok untuk dijadikan sebagai balasan. Model ini akan mempertimbangkan beberapa faktor, seperti bahasa, topik, gaya, dan emosi dari pesan pengguna. Model ini juga akan memperhatikan aturan-aturan yang telah ditetapkan oleh pembuat chat gpt, seperti batasan waktu, jumlah kata, format penulisan, dan lain-lain. Setelah menemukan teks yang sesuai, model ini akan mengirimkannya kepada pengguna sebagai balasan.
ChatGPT adalah model berbasis mesin pembelajaran yang telah dilatih pada banyak teks dari berbagai sumber di web. Model ini dirancang untuk menghasilkan teks yang lebih lanjut berdasarkan teks input yang diberikan kepadanya.
Cara Kerja Chat GPT
Berikut adalah langkah-langkah umum dalam cara ChatGPT bekerja:
A. Pra-pemrosesan
Sebelum dilatih, teks dari berbagai sumber dikumpulkan dan dibersihkan dari markup atau format yang tidak diinginkan. Teks tersebut kemudian dipecah menjadi potongan-potongan yang lebih kecil seperti paragraf atau kalimat agar lebih mudah dikelola.
Berikut adalah beberapa langkah yang umum dilakukan dalam tahap Pra-pemrosesan:
- Pengumpulan Data: Langkah pertama adalah mengumpulkan data teks yang akan digunakan untuk melatih model. Data ini dapat berasal dari berbagai sumber seperti situs web, buku, artikel, dan dokumen lainnya. Data tersebut bisa dikumpulkan secara manual atau menggunakan alat pengumpul data otomatis.
- Membersihkan Data: Setelah data dikumpulkan, langkah berikutnya adalah membersihkan data dari format atau markup yang tidak diinginkan. Ini termasuk menghapus tanda baca, karakter khusus, tag HTML, dan elemen-formatting lainnya. Tujuannya adalah untuk menyederhanakan teks dan menghilangkan informasi yang tidak relevan yang dapat mengganggu proses pembelajaran model.
- Tokenisasi: Tokenisasi adalah proses memecah teks menjadi unit-unit yang lebih kecil yang disebut “token”. Token ini biasanya berupa kata-kata, tetapi juga bisa berupa frasa, karakter, atau sub-kata tergantung pada strategi tokenisasi yang digunakan. Misalnya, kalimat “Saya suka makan nasi goreng” dapat ditokenisasi menjadi [“Saya”, “suka”, “makan”, “nasi”, “goreng”].
- Pemecahan Teks: Setelah proses tokenisasi, teks dapat dibagi menjadi unit yang lebih kecil seperti paragraf, kalimat, atau subkalimat, tergantung pada kebutuhan dan tujuan aplikasi. Pemecahan teks ini dapat membantu dalam mengelola dan memproses teks secara lebih efisien.
- Menghapus Stop Words: Stop words adalah kata-kata umum seperti “dan”, “atau”, “dari”, dan “ke” yang sering muncul dalam teks tetapi memiliki sedikit kontribusi pada pemahaman makna teks. Dalam beberapa kasus, stop words dihapus untuk mengurangi dimensi data dan memfokuskan model pada kata-kata yang lebih informatif.
- Normalisasi: Normalisasi melibatkan pemrosesan teks untuk menyamakan format kata-kata. Misalnya, mengubah kata-kata menjadi bentuk dasar seperti mengubah “berjalan” menjadi “jalan”, atau mengubah huruf kapital menjadi huruf kecil di seluruh teks. Ini membantu mengurangi variasi dan memungkinkan model untuk mempelajari hubungan antara kata-kata yang serupa.
- Pembentukan Sekuen: Setelah tahap pra-pemrosesan, teks dapat diubah menjadi sekuens (sequences) yang lebih terstruktur atau dipersiapkan dalam format yang sesuai dengan input yang diharapkan oleh model. Ini dapat mencakup pembentukan pasangan pertanyaan-jawaban, dialog, atau struktur data lainnya tergantung pada tujuan aplikasi.
Tahap pra-pemrosesan ini bertujuan untuk mempersiapkan data teks dalam format yang cocok untuk dilatih menggunakan model GPT dan memastikan data yang bersih dan siap untuk digunakan dalam pelatihan dan pengujian

B. Pembelajaran
Cara kerja chat gpt setelah teks pra-pemrosesan, model GPT dilatih menggunakan metode pembelajaran yang disebut “pembelajaran tanpa pengawasan”. Dalam tahap ini, model diberikan tugas untuk memprediksi kata berikutnya dalam teks berdasarkan kata-kata sebelumnya dalam teks tersebut. Proses ini dilakukan melalui sejumlah iterasi, di mana model secara bertahap memperbarui bobot internalnya untuk meningkatkan prediksinya.
Tahap pembelajaran (training) dalam kerja ChatGPT adalah proses di mana model GPT dilatih menggunakan data teks yang telah diproses sebelumnya. Berikut adalah langkah-langkah yang terlibat dalam tahap pembelajaran:
- Pembentukan Batch: Data teks yang telah diproses biasanya terdiri dari sejumlah besar teks yang terbagi menjadi sekuens atau potongan-potongan yang lebih kecil. Dalam tahap pembelajaran, data tersebut dikelompokkan menjadi batch, yaitu sekelompok sekuens yang akan digunakan untuk pelatihan.
- Encoding: Setiap teks dalam batch kemudian diubah menjadi representasi numerik yang dapat dipahami oleh model. Untuk melakukan ini, kata-kata atau token dalam teks diubah menjadi vektor numerik menggunakan teknik seperti Word2Vec atau GloVe. Proses ini dikenal sebagai encoding teks.
- Pembentukan Data Latih dan Data Validasi: Sebelum melatih model, data perlu dibagi menjadi dua subset: data latih (training data) dan data validasi (validation data). Data latih digunakan untuk melatih model, sedangkan data validasi digunakan untuk mengukur kinerja model saat pelatihan berlangsung. Pemisahan ini memungkinkan evaluasi yang lebih baik terhadap kinerja model dan membantu mencegah overfitting.
- Pelatihan Model: Setelah persiapan data, tahap pelatihan dimulai. Pada awalnya, model GPT diinisialisasi dengan bobot acak. Setiap batch dari data latih kemudian disajikan ke model, dan model menghasilkan prediksi kata berikutnya berdasarkan kata-kata sebelumnya dalam teks. Kesalahan prediksi dibandingkan dengan label sebenarnya, dan melalui algoritma pembelajaran seperti backpropagation, bobot internal model diperbarui untuk memperbaiki prediksi selanjutnya.
- Pengoptimalan: Selama pelatihan, teknik pengoptimalan seperti Stochastic Gradient Descent (SGD) atau Adam digunakan untuk memperbarui bobot model. Algoritma ini menghitung gradien atau perubahan bobot yang diperlukan untuk meminimalkan kesalahan prediksi. Pengoptimalan dilakukan secara berulang dalam beberapa iterasi atau epoch untuk meningkatkan performa model.
- Evaluasi dan Pemilihan Model Terbaik: Selama pelatihan, model dievaluasi menggunakan data validasi. Metrik evaluasi seperti perplexity, akurasi, atau loss function digunakan untuk mengukur kinerja model. Pada akhir setiap epoch atau iterasi, model yang memiliki kinerja terbaik diambil sebagai model terbaik yang akan digunakan dalam aplikasi.
- Penyimpanan Model: Setelah pelatihan selesai, model yang telah dilatih disimpan dalam suatu format yang memungkinkan penggunaan lebih lanjut. Ini memungkinkan model ChatGPT untuk digunakan dalam fase inferensi atau pembangunan aplikasi yang memanfaatkannya.
Tahap pembelajaran sangat penting dalam menghasilkan model ChatGPT yang efektif dan responsif. Dengan melatih model pada data yang cukup dan dengan menggunakan teknik yang tepat, model dapat mengembangkan pemahaman tentang teks dan menghasilkan respons yang berkualitas tinggi berdasarkan input yang diberikan.
C. Transformator
Cara kerja chat gpt dengan memanfaatkan arsitektur GPT yaitu menggunakan transformator, yang merupakan jenis arsitektur jaringan saraf yang mengandalkan perhatian (attention) untuk memproses teks. Transformator memungkinkan model untuk “memperhatikan” kata-kata yang berbeda dalam konteks teks saat ini, sehingga memungkinkan penghasilan teks yang lebih baik.
Tahap Transformator dalam kerja ChatGPT adalah salah satu aspek penting dalam arsitektur model GPT. Transformator adalah jenis arsitektur jaringan saraf yang digunakan oleh model GPT untuk memproses teks. Berikut adalah penjelasan lebih rinci tentang tahap Transformator:
- Perhatian (Attention): Transformator beroperasi dengan memanfaatkan mekanisme perhatian (attention). Perhatian memungkinkan model untuk “memperhatikan” bagian-bagian tertentu dari teks yang diproses saat ini. Dalam konteks ChatGPT, perhatian digunakan untuk memahami konteks dan hubungan antara kata-kata dalam input dan menghasilkan respons yang sesuai.
- Matriks Perhatian: Dalam Transformator, setiap kata dalam teks input diwakili oleh vektor yang disebut vektor kunci (key), vektor nilai (value), dan vektor pertanyaan (query). Kemudian, dihitung matriks perhatian yang mengukur tingkat relevansi antara kata-kata dalam teks. Matriks perhatian ini menentukan berapa banyak “perhatian” yang harus diberikan pada kata-kata tertentu dalam menghasilkan respons.
- Skala Perhatian dan Softmax: Matriks perhatian awalnya memiliki nilai yang besar dan perlu dinormalisasi. Untuk itu, digunakan skala perhatian (attention scaling) untuk membagi matriks perhatian dengan akar kuadrat dari dimensi vektor pertanyaan. Setelah itu, matriks perhatian dinormalisasi menggunakan fungsi softmax sehingga jumlah nilai dalam setiap baris matriks perhatian menjadi 1.
- Pemberian Bobot dan Perkalian Dot: Setelah matriks perhatian dinormalisasi, bobot perhatian diterapkan pada vektor nilai. Ini dilakukan dengan melakukan perkalian dot antara matriks perhatian yang dinormalisasi dan vektor nilai. Perkalian dot menghasilkan representasi perhatian yang diberikan pada kata-kata dalam teks.
- Penggabungan dan Linear Layer: Representasi perhatian yang diberikan pada kata-kata digabungkan kembali untuk menghasilkan representasi keseluruhan dari teks input. Setelah itu, lapisan linear (linear layer) digunakan untuk mengubah representasi tersebut menjadi representasi yang lebih sesuai dengan output yang diinginkan.
- Pengulangan Transformator: Transformator dalam model GPT memiliki beberapa lapisan yang saling terhubung. Selama tahap pengolahan teks, teks input melewati serangkaian lapisan transformator secara berulang. Setiap lapisan transformator menggabungkan perhatian pada kata-kata sebelumnya dengan informasi baru untuk memperkaya pemahaman model tentang teks tersebut.
Tahap Transformator dalam model GPT memungkinkan model untuk memperhatikan dan memahami konteks dari teks input. Dengan melakukan perhitungan perhatian yang cerdas dan menggabungkan informasi dari lapisan transformator yang berulang, model dapat menghasilkan respons yang lebih baik dan lebih terkait dengan input yang diberikan.
D. Decoding
Cara Kerja Chat GPT setelah tahap pembelajaran selesai, model ChatGPT siap digunakan untuk menghasilkan teks berdasarkan input yang diberikan. Saat menerima teks input dari pengguna, model menggunakan metode decoding untuk menghasilkan respons. Proses ini melibatkan pemilihan kata-kata yang paling mungkin berdasarkan teks sebelumnya dan kemudian menggabungkannya untuk membentuk kalimat respons.
Tahap Decoding dalam kerja ChatGPT adalah langkah di mana model menggunakan informasi yang telah diproses untuk menghasilkan respons berdasarkan teks input. Berikut adalah penjelasan lebih rinci tentang tahap Decoding:
- Input Encoding: Tahap decoding dimulai dengan menerima teks input dari pengguna. Teks input tersebut kemudian dienkripsi menggunakan teknik yang sama dengan tahap Pra-pemrosesan sebelumnya, seperti tokenisasi dan encoding teks menjadi representasi numerik yang dapat dipahami oleh model.
- Inisialisasi Respons Awal: Setelah teks input dienkripsi, langkah selanjutnya adalah menginisialisasi respons awal. Respons awal ini bisa berupa token khusus, seperti token “Mulai” atau token acak, yang menandakan awal respons yang akan dihasilkan oleh model.
- Generasi Respons Berulang: Respons awal kemudian digunakan sebagai input untuk menghasilkan respons selanjutnya. Model menggunakan mekanisme perhatian dan lapisan transformator untuk memproses teks input dan respons sebelumnya dan menghasilkan distribusi probabilitas atas kemungkinan kata-kata yang akan menjadi respons selanjutnya.
- Sampling atau Argmax: Setelah distribusi probabilitas kata-kata dihasilkan, ada beberapa pendekatan yang dapat digunakan untuk memilih kata-kata selanjutnya. Salah satunya adalah dengan menggunakan argmax, di mana kata dengan probabilitas tertinggi dipilih sebagai respons selanjutnya. Pendekatan ini menghasilkan respons yang paling mungkin berdasarkan model. Namun, pendekatan ini cenderung menghasilkan respons yang monoton dan kurang variasi.
Alternatifnya, pendekatan sampling dapat digunakan, di mana kata-kata selanjutnya dipilih berdasarkan probabilitas distribusi secara acak. Pendekatan ini memberikan variasi dalam respons yang dihasilkan oleh model, tetapi dapat menghasilkan respons yang tidak sepenuhnya koheren atau kurang konsisten.
- Batasan Panjang Respons: Selama tahap decoding, ada batasan panjang yang diterapkan pada respons yang dihasilkan untuk menghindari respons yang terlalu panjang atau tidak relevan. Batasan panjang ini dapat ditentukan berdasarkan jumlah token atau jumlah kata yang diizinkan dalam respons.
- Pengulangan Respons: Proses generasi respons berulang dilakukan sampai kondisi berhenti tercapai. Kondisi berhenti ini dapat ditentukan berdasarkan aturan tertentu, seperti mencapai token “Selesai” khusus, mencapai batasan panjang respons, atau mendapatkan respons yang dianggap memadai.
Tahap decoding adalah bagian penting dalam kerja ChatGPT karena di sinilah respons sebenarnya dihasilkan. Dengan menggunakan teks input dan respons sebelumnya, model dapat menghasilkan respons yang relevan dan sesuai dengan konteks yang diberikan.
baca juga : Dampak negatif chat GPT
E. Fine-tuning
Cara Kerja Chat GPT setelah model dasar dilatih, tahap fine-tuning dilakukan untuk mengkustomisasi model untuk tugas spesifik. Proses ini melibatkan melatih model pada data yang ditandai khusus yang relevan dengan tugas yang diinginkan. Dalam kasus ChatGPT, fine-tuning mungkin mencakup penggunaan data dialog dan respons yang diberikan oleh manusia untuk mengoptimalkan kemampuan model dalam berinteraksi dengan pengguna.
Tahap Fine-tuning dalam kerja ChatGPT adalah proses di mana model GPT yang telah dilatih sebelumnya secara umum disesuaikan atau disempurnakan untuk tugas atau domain spesifik. Berikut adalah penjelasan lebih rinci tentang tahap Fine-tuning:
- Kumpulan Data Tugas Spesifik: Untuk melakukan fine-tuning, Anda perlu memiliki kumpulan data yang sesuai dengan tugas atau domain spesifik yang ingin Anda gunakan model ChatGPT untuk. Kumpulan data ini harus berisi contoh-contoh pertanyaan dan respons yang relevan dengan tugas yang ingin dipecahkan.
- Pemrosesan Data: Kumpulan data tugas spesifik yang Anda miliki perlu diproses secara serupa dengan tahap Pra-pemrosesan pada tahap awal. Ini termasuk membersihkan data, tokenisasi, pemecahan teks, menghapus stop words, dan langkah-langkah lainnya untuk mempersiapkan data dalam format yang cocok untuk melatih model.
- Penyesuaian Model: Setelah data diproses, model GPT yang telah dilatih sebelumnya dapat disesuaikan dengan data tugas spesifik. Model yang disesuaikan atau fine-tuned akan memiliki pengetahuan dan pemahaman yang lebih baik tentang tugas yang ingin dipecahkan.
- Pelatihan dengan Data Tugas Spesifik: Data tugas spesifik digunakan untuk melatih kembali bagian tertentu dari model GPT. Biasanya, lapisan terakhir atau beberapa lapisan terakhir dari model diubah dan dilatih ulang dengan menggunakan data tugas spesifik. Lapisan-lapisan sebelumnya yang telah dilatih secara umum tetap tidak berubah.
- Proses Pelatihan: Proses pelatihan pada tahap fine-tuning mirip dengan tahap pelatihan awal. Data tugas spesifik dibagi menjadi batch dan diberikan ke model untuk melatih bagian yang disesuaikan. Bobot yang ada di bagian yang tidak diubah tetap dipertahankan.
- Evaluasi dan Penyetelan: Setelah pelatihan selesai, model yang disesuaikan dievaluasi menggunakan metrik yang sesuai dengan tugas spesifik yang ingin dipecahkan. Jika hasilnya masih belum memadai, Anda dapat melakukan penyetelan ulang pada hiperparameter atau arsitektur model untuk meningkatkan performa.
- Penggunaan Model Fine-tuned: Setelah tahap fine-tuning selesai, model yang telah disesuaikan atau fine-tuned dapat digunakan untuk tugas spesifik yang diinginkan. Model ini memiliki pemahaman yang lebih baik tentang domain atau tugas tertentu, dan dapat menghasilkan respons yang lebih relevan dan sesuai dengan tugas yang diberikan.
Tahap fine-tuning memungkinkan model GPT yang telah dilatih secara umum untuk diterapkan dalam tugas atau domain spesifik dengan peningkatan performa. Dengan melatih kembali model pada data tugas spesifik, model dapat diadaptasi dengan lebih baik untuk tujuan yang diinginkan.
F. Perulangan respons
Cara kerja chat gpt ketika pengguna memberikan input, model menghasilkan respons awal berdasarkan pemrosesan input tersebut. Respons ini kemudian dapat menjadi input baru untuk menghasilkan respons berikutnya. Proses ini berulang hingga dihasilkan respons yang dianggap memadai.
Tahap Perulangan Respons dalam kerja ChatGPT terjadi ketika model GPT menghasilkan respons secara berulang sebagai tanggapan terhadap input atau respons sebelumnya. Berikut adalah penjelasan lebih rinci tentang tahap perulangan respons:
- Respons Awal: Tahap perulangan respons dimulai dengan respons awal yang dihasilkan oleh model, seperti yang dijelaskan dalam tahap Decoding sebelumnya. Respons awal ini dapat berupa token “Mulai” atau respons acak yang menandakan awal tanggapan.
- Respons Berikutnya: Respons awal kemudian digunakan sebagai input untuk menghasilkan respons berikutnya. Model menggunakan teks input, respons sebelumnya, atau konteks yang relevan untuk memprediksi kata-kata atau token selanjutnya dalam respons.
- Generasi Respons: Model menghasilkan respons berdasarkan prediksi kata-kata selanjutnya. Respons ini bisa terdiri dari satu kata, beberapa kata, atau bahkan beberapa kalimat, tergantung pada desain dan implementasi model.
- Evaluasi dan Pemrosesan Respons: Respons yang dihasilkan dievaluasi untuk memastikan kualitas, relevansi, dan kecocokan dengan tujuan atau konteks percakapan. Respons yang dihasilkan dapat dianalisis menggunakan metrik evaluasi seperti kecocokan dengan pertanyaan, kelancaran, atau kesesuaian konteks.
- Iterasi Respons Berulang: Proses perulangan respons berlanjut dengan respons yang dihasilkan sebagai input untuk menghasilkan respons selanjutnya. Iterasi ini dilakukan sampai kondisi berhenti tercapai, seperti mencapai batasan panjang respons, respons yang dianggap memadai, atau mencapai token “Selesai” khusus.
- Penanganan Keluhan: Selama tahap perulangan respons, dapat terjadi situasi di mana respons yang dihasilkan tidak memuaskan atau tidak relevan. Untuk mengatasi ini, dapat diterapkan langkah-langkah penanganan keluhan yang sesuai, seperti mengimplementasikan sistem penilaian respons, memodifikasi aturan generasi respons, atau mengizinkan pengguna untuk memberikan umpan balik dan mengoreksi respons yang dihasilkan.
- Respons Akhir: Setelah iterasi respons berulang, respons akhir yang dihasilkan dianggap sebagai tanggapan akhir dari model GPT terhadap input yang diberikan. Respons ini dapat disampaikan kepada pengguna atau digunakan dalam konteks aplikasi yang relevan.
Tahap perulangan respons memungkinkan model GPT untuk menghasilkan respons yang koheren, relevan, dan kontekstual dalam percakapan. Dengan menggabungkan konteks dari respons sebelumnya dan mengoptimalkan generasi kata berikutnya, model dapat menciptakan tanggapan yang lebih baik seiring berjalannya percakapan.
Bekerja Berdasarkan model statistik
Penting untuk diingat bahwa ChatGPT adalah model statistik yang berbasis pada data yang diberikan saat pelatihan dan tidak memiliki pemahaman mendalam tentang konteks atau pengetahuan yang lebih luas seperti manusia.
Chat gpt adalah sebuah sistem yang terus berkembang dan belajar dari pengalaman. Chat gpt dapat menyesuaikan diri dengan kebutuhan dan preferensi pengguna.