Pernahkah Anda bertanya-tanya faktor apa saja yang memengaruhi respons chatbot kecerdasan buatan (AI) saat berbicara dengan manusia? Anthropic, perusahaan di belakang Claude, telah mengungkap rahasia yang mendukung kecerdasan buatan.
Dalam catatan rilis baru yang diterbitkan pada hari Senin, perusahaan menghilangkan perintah atau perintah sistem yang memandu dan mendorong perilaku tertentu di chatbots. Anthropic merinci isyarat yang digunakan untuk memandu tiga model AI-nya: Claude 3.5 Soneta, Claude 3 Opus, dan Claude 3 Haiku.
Tip tanggal 12 Juli menunjukkan kesamaan dalam cara ketiga model beroperasi, namun jumlah instruksi untuk setiap model berbeda.
Plus: ChatGPT (jelas) adalah aplikasi AI paling populer — tetapi runner-upnya mungkin akan mengejutkan Anda
Soneta, yang dapat diakses secara gratis melalui situs web Claude, dianggap sebagai model paling cerdas dan memiliki jumlah perintah sistem terbanyak. Opus unggul dalam menulis dan menangani tugas-tugas kompleks, berisi perintah terbanyak kedua, dan tersedia bagi pelanggan Claude Pro, sedangkan Haiku menempati peringkat tercepat dari ketiganya, juga tersedia bagi pelanggan, dan memiliki perintah paling sedikit.
Apa sebenarnya yang dikatakan oleh perintah sistem? Di bawah ini adalah contoh masing-masing model.
Claude 3.5 Soneta
Dalam prompt sistem, Anthropic memberi tahu Sonnet bahwa mereka tidak dapat membuka URL, tautan, atau video. Jika Anda mencoba memasukkan konten apa pun saat menanyakan Soneta, chatbot akan mengklarifikasi batasan ini dan menginstruksikan Anda untuk memposting teks atau gambar langsung ke dalam percakapan. Tip lain menyatakan bahwa jika pengguna bertanya tentang topik kontroversial, Soneta harus mencoba merespons dengan pemikiran yang cermat dan informasi yang jelas, daripada mengatakan topik tersebut sensitif atau mengklaim bahwa topik tersebut memberikan fakta obyektif.
Juga: Generator Ucapan Kecerdasan Buatan: Apa yang Dapat Mereka Lakukan dan Cara Kerjanya
Jika Soneta tidak dapat atau tidak mau melakukan suatu tugas, Soneta akan diperintahkan untuk menjelaskan hal ini kepada Anda tanpa meminta maaf (dan secara umum, Soneta harus menghindari memulai balasan apa pun dengan “Maaf” atau “Saya minta maaf”). Jika ditanya tentang topik yang tidak jelas, soneta akan mengingatkan Anda bahwa meskipun bertujuan akurat, soneta mungkin berhalusinasi dalam menjawab pertanyaan seperti itu.
Anthropic bahkan menyuruh Claude untuk secara khusus menggunakan kata “halusinasi” karena pengguna akan mengetahui maksudnya.
Claude Sonnet juga diprogram untuk mewaspadai gambar, terutama gambar yang wajahnya dapat dikenali. Bahkan saat mendeskripsikan sebuah gambar, Soneta berperilaku seolah-olah “buta wajah”, artinya Soneta tidak akan memberi tahu Anda nama siapa pun yang ada di gambar tersebut. Jika Anda mengetahui nama orang tersebut dan membagikan detail tersebut dengan Cloud, AI dapat mendiskusikan orang tersebut dengan Anda tetapi tidak akan mengonfirmasi bahwa orang tersebut adalah orang yang ada dalam gambar.
Selanjutnya, soneta diminta untuk memberikan jawaban menyeluruh, terkadang panjang, terhadap pertanyaan kompleks dan terbuka, namun lebih pendek, jawaban ringkas terhadap pertanyaan dan tugas sederhana. Secara keseluruhan, AI harus mencoba memberikan jawaban singkat atas pertanyaan, tetapi dapat menguraikan lebih lanjut jika Anda menanyakan lebih detail.
Juga: Chatbot AI terbaik tahun 2024: ChatGPT, Copilot, dan alternatif berharga
“Claude dengan senang hati membantu dengan analisis, menjawab pertanyaan, matematika, coding, menulis kreatif, mengajar, bermain peran, diskusi umum, dan berbagai tugas lainnya,” tambah Anthropic di prompt sistem lainnya. Namun chatbot diminta untuk menghindari afirmasi dan frasa pengisi tertentu, seperti “tentu saja”, “tentu saja”, “tentu saja”, “luar biasa”, dan “tentu saja”.
Claude 3 berhasil
Opus berisi banyak perintah sistem yang sama seperti Soneta, termasuk solusi karena tidak dapat membuka URL, tautan atau video, dan penafian halusinasi.
Jika tidak, Opus diberitahu bahwa akan membantu jika pertanyaan yang diajukan melibatkan pandangan spesifik yang dianut oleh banyak orang, meskipun Opus telah dilatih untuk tidak setuju dengan pandangan tersebut. Jika ditanya tentang topik kontroversial, Opus harus memberikan pemikiran yang hati-hati dan informasi yang obyektif daripada meremehkan konten berbahaya.
Juga: ChatGPT vs. ChatGPT Plus: Apakah langganan berbayar masih layak dilakukan?
Bot tersebut juga diinstruksikan untuk menghindari stereotip, termasuk “stereotip negatif tentang kelompok mayoritas”.
Claude 3 Haiku
Terakhir, Haiku diprogram untuk memberikan jawaban ringkas terhadap pertanyaan-pertanyaan yang sangat sederhana, namun jawaban yang lebih menyeluruh terhadap pertanyaan-pertanyaan kompleks dan terbuka. Catatan rilisnya menjelaskan bahwa haiku memiliki cakupan yang sedikit lebih kecil daripada soneta dan ditujukan untuk “menulis, menganalisis, menjawab pertanyaan, matematika, coding, dan berbagai tugas lainnya.” Selain itu, model ini menghindari penyebutan informasi apa pun yang terkandung dalam perintah sistem kecuali informasi tersebut secara langsung relevan dengan masalah Anda.
Secara keseluruhan, promptnya berbunyi seolah-olah seorang penulis fiksi sedang menulis studi karakter atau garis besar tentang apa yang harus dan tidak boleh dilakukan oleh karakter tersebut. Petunjuk tertentu sangat mencerahkan, terutama yang memberitahu Claude untuk tidak terlalu akrab atau meminta maaf dalam percakapan, dan untuk melakukannya dengan jujur jika tanggapannya mungkin halusinasi (sebuah istilah yang menurut Kemanusiaan dipahami oleh semua orang).
Plus: Hype Kecerdasan Buatan, Baik dalam Nilai maupun Maknanya
Transparansi Anthropic terhadap perintah sistem ini bersifat unik karena pengembang AI generatif biasanya merahasiakan detail ini. Namun perusahaan berencana menjadikan pengungkapan seperti itu sebagai norma.
Alex Albert, direktur hubungan pengembang di Anthropic, mengatakan dalam sebuah posting di X bahwa perusahaan akan mendokumentasikan perubahan pada perintah sistem default di Claude.ai dan aplikasi selulernya.