Kesiapan Masyarakat Menghadapi Perkembangan Kecerdasan Buatan
Di tengah kemajuan pesat dalam bidang kecerdasan buatan atau Artificial Intelligence (AI), banyak orang terkesan dengan kecepatannya. Namun, di balik semua inovasi tersebut muncul pertanyaan penting: apakah kita sudah siap menyerahkan sebagian kendali ke mesin?
Yang lebih penting lagi, apakah kita mampu menciptakan AI yang tidak hanya cerdas, tetapi juga memahami kapan harus berhenti? Pertanyaan ini semakin relevan karena sistem AI saat ini sering kali dirancang untuk memberikan jawaban atas segala hal, bahkan ketika mereka belum sepenuhnya memahami konteksnya. Akibatnya, risiko kesalahan, bias, atau penyebaran informasi yang salah bisa muncul tanpa disadari.
Salah satu pendekatan yang mulai berkembang adalah membuat AI yang bisa “mengenal batasannya”. Artinya, AI diberi batasan, baik secara teknis maupun dalam hal tanggung jawab. Misalnya, jika AI tidak yakin dengan jawabannya, ia bisa berhenti dan menyerahkan tugas kepada manusia. Pendekatan ini sedang diuji oleh beberapa perusahaan, salah satunya SleekFlow melalui sistem AgentFlow yang fokus pada layanan pelanggan.
“Kesalahan dalam layanan pelanggan tidak selalu terkait teknologi, tetapi lebih pada hubungan antara manusia,” ujar Asnawi Jufrie, VP & GM SleekFlow Asia Tenggara. “AgentFlow dibuat untuk membantu, bukan menggantikan manusia sepenuhnya.”
Namun, isu ini tidak hanya berbicara tentang merek, tetapi juga tentang pergeseran tren menuju AI yang lebih etis dan sadar akan batasan, bukan sekadar AI yang cepat dan pintar. Konsumen mulai menjadi lebih realistis. Dulu, masyarakat menganggap AI sebagai solusi untuk semua masalah, namun kini persepsi mulai berubah.
Berdasarkan riset yang dilakukan, termasuk oleh SleekFlow, ternyata mayoritas konsumen, terutama di Indonesia, lebih nyaman berinteraksi dengan manusia saat menghadapi masalah yang sensitif, rumit, atau emosional. Ini menjadi sinyal penting bahwa kecepatan dan otomatisasi saja tidak cukup. Kita butuh AI yang memahami perannya dan tahu kapan harus berhenti.
Perlu dipahami bahwa AI yang terlalu percaya diri bisa berbahaya. Bukan hanya soal menjawab salah atau bias, tetapi juga bisa memicu kepercayaan palsu dari pengguna. Dalam dunia teknis, istilah seperti AI hallucination digunakan untuk menggambarkan situasi di mana AI memproduksi informasi yang terdengar meyakinkan tetapi sebenarnya tidak benar.
Oleh karena itu, fitur seperti sistem pengecek jawaban, deteksi ketidakyakinan, dan pengalihan ke manusia seharusnya menjadi standar etika baru dalam pengembangan sistem AI, bukan sekadar tambahan. Namun, hingga saat ini, sebagian besar negara, termasuk Indonesia, belum memiliki kerangka regulasi yang jelas dan matang terkait penggunaan AI.
Laporan dari Boston Consulting Group menyebutkan bahwa lebih dari 70 persen negara masih belum siap secara struktural dalam hal kebijakan, keterampilan SDM, maupun investasi jangka panjang terkait AI. Oleh karena itu, tanggung jawab etika jatuh ke tangan pelaku bisnis dan pembuat sistem. Mereka harus berinisiatif membangun sistem yang transparan, terbatas, dan tetap dalam pengawasan manusia.
Ini bukan karena diwajibkan, tetapi karena itulah cara paling masuk akal untuk menjaga kepercayaan pengguna. Meskipun AI bisa membantu banyak hal, dari urusan sales, customer support, hingga logistik, bukan berarti semua harus diserahkan ke AI.
Pendekatan kolaboratif, di mana AI dan manusia saling melengkapi, saat ini dianggap paling masuk akal. Di tengah ketiadaan aturan jelas, pendekatan ini bisa menjadi langkah awal menuju masa depan teknologi yang lebih aman, manusiawi, dan dapat dipercaya.
