Menyingkap “black box” AI di balik permainan naik turun tarif ojek online

Environmentallca.my.id-

Mungkin kamu pernah memesan ojek online (ojol) dengan rute perjalanan yang sama setiap hari, tapi harganya bisa saja berubah-ubah. Kadang bisa lebih murah, kadang lebih mahal.

Pengalaman saya sendiri, dua bulan lalu, ketika memesan ojek online untuk perjalanan dari kawasan Blok M di Jakarta Selatan ke titik rumah, saya hanya membayar Rp17.500 untuk sekali perjalanan sejauh 5,1 kilometer. Namun, selang sekitar tiga pekan kemudian, untuk rute yang sama, saya mendapat harga Rp26.500—padahal jaraknya sama, hanya waktu tempuhnya lebih lambat empat menit.

Kedua faktur di atas menunjukkan bagaimana algoritma AI yang digunakan oleh perusahaan ride-hailing dapat menetapkan tarif yang berbeda untuk perjalanan dengan asal dan tujuan yang sama.
Dokumentasi pribadi.

Jika kamu bertanya-tanya, kenapa bisa begitu? Jawabannya ada di balik teknologi black box AI yang dipakai perusahaan transportasi online.

Mengapa tarif ojek online berubah-ubah?

Dalam kegiatan operasionalnya, industri transportasi online (ride-hailing) menggunakan sistem kecerdasan buatan (AI). Bukan hanya untuk menentukan tarif, sistem AI ini juga berfungsi untuk mempertemukan driver dengan pengguna hingga merekomendasikan rute tercepat.

Sistem AI bekerja dengan algoritma kompleks untuk memproses data, mengenali pola, dan membuat keputusan. Pada subset AI tertentu, khususnya machine learning—yang terdapat dalam sistem transportasi online, algoritma memungkinkan sistem belajar sendiri tanpa diprogram secara khusus.

Canggih memang. Tapi masalahnya adalah, ketika pembelajaran AI semakin kompleks, semakin sulit pula manusia memahami cara kerja AI dalam mengambil keputusan. Jadi, manusia bisa mengetahui input dan output dari sistem AI tersebut, tetapi tidak tahu bagaimana cara output tersebut dihasilkan. Hal inilah yang menyebabkan sistem kerja internal algoritma AI sering disebut sebagai black box atau kotak hitam yang tertutup.

Ilustrasi sistem kerja internal AI yang disebut sebagai kotak hitam.
Dokumentasi pribadi.

Dalam sistem transportasi online, cara kerja black box yang tidak transparan ini membuat tarif bisa berubah-ubah tanpa alasan yang jelas. Algoritma AI sangat mungkin menetapkan tarif yang berbeda untuk perjalanan dengan asal dan tujuan yang sama tanpa alasan yang dapat dimengerti oleh pengguna. Ketidakjelasan dalam penentuan tarif ini tentu saja memengaruhi kepercayaan pengguna.

Sistem ini juga berdampak pada driver. Cara kerja AI dalam mempertemukan driver dengan pengguna tidak bisa ditakar. Pengemudi mitra yang lokasinya dekat dengan pengguna, belum tentu akan mendapatkan pesanan karena algoritma bekerja dengan mempertimbangkan banyak faktor—yang tidak diketahui driver.

Akibatnya, distribusi pesanan tidak merata. Hal ini berimbas pada pendapatan driver yang tidak stabil serta jam kerja yang semakin panjang dan tidak menentu.

Driver pun bisa merasa dirugikan karena sistem yang berlaku cenderung eksploitatif dan tidak adil. Dalam jangka panjang, ketidakpercayaan ini bisa memperburuk kondisi kerja di industri gig economy.

Membuka kotak hitam AI dalam industri ride-hailing

Untuk mengatasi masalah ini, perlu ada aturan yang mewajibkan perusahaan transportasi online lebih transparan membuka sistem mereka.

Perkembangan AI dewasa ini telah memunculkan konsep yang disebut sebagai explainable AI (XAI). Melalui konsep ini, sistem AI bisa menjelaskan bagaimana mereka mengambil keputusan hingga akhirnya menghasilkan output tertentu.

Dalam konteks industri transportasi online, XAI dapat menjelaskan bagaimana tarif dihitung dan mengapa tarif yang berbeda berlaku untuk perjalanan dari dan ke tempat yang sama. XAI juga bisa menunjukkan alasan mengapa driver A yang mendapatkan pesanan, sedangkan driver B tidak, meski keduanya berada di tempat yang sama, serta hal-hal lain dalam sistem AI yang saat ini belum terjelaskan.

Penerapan XAI dalam industri ride-hailing bisa diberlakukan jika ada regulasi yang mewajibkan penyelenggara sistem AI mengungkapkan cara kerja sistem AI mereka.

Beberapa negara sudah mulai mengatur ini. Uni Eropa, misalnya, lewat EU AI Act mewajibkan sistem AI dalam layanan penting seperti kesehatan, keselamatan, atau hak-hak fundamental lainnya, didesain dengan transparan. Jika merujuk pada Annex III EU AI Act, industri ride-hailing masuk dalam kategori hak-hak fundamental.

Tanggung jawab platform ride-hailing menciptakan layanan yang transparan

Regulasi yang mewajibkan transparansi dalam sistem AI akan membuat platform ride-hailing bertanggung jawab menyediakan informasi tentang cara kerja sistem AI di dalam platformnya.

Salah satu hal yang dapat dilakukan misalnya dengan memberikan akses kepada pengguna maupun driver untuk mengetahui komponen tarif dan cara penghitungannya, serta faktor yang memengaruhi lonjakan harga.

Selain itu, platform juga perlu menjelaskan bagaimana sistem matching antara pengguna dengan driver bekerja. Dengan transparansi ini, keputusan algoritma tidak akan terasa sewenang-wenang lagi. Pengguna dan driver pun bakal merasa diperlakukan lebih adil dalam transaksi.

Selain menguntungkan pengguna dan driver, transparansi layanan juga bermanfaat bagi penyedia platform ride-hailing. Semakin transparan layanan, semakin meningkat pula kepercayaan pengguna dan driver. Pengguna akan yakin bahwa mereka mendapatkan tarif yang wajar. Sementara driver bisa memahami bagaimana sistem menentukan pesanan dan insentif yang mereka dapatkan.

Transparansi sistem AI dalam ekosistem ride-hailing merupakan elemen kunci untuk menciptakan keadilan dan keberlanjutan bagi pengguna, driver, dan platform. Untuk itu, kita memerlukan regulasi yang mewajibkan penyelenggaraan sistem AI secara transparan. Dengan demikian, industri ride-hailing dapat tumbuh lebih berkelanjutan dan berkeadilan bagi seluruh ekosistemnya.

Artikel ini merupakan Rangkuman Ulang Dari Berita : https://theconversation.com/menyingkap-black-box-ai-di-balik-permainan-naik-turun-tarif-ojek-online-243587

Tinggalkan komentar