Awalnya,
Microsoft ingin pamer kecanggihan teknologi kecerdasan buatannya. Namanya Tay,
sebuah chatbot yang bisa berinteraksi di Twitter dengan user lainnya. Sayang,
ulah si Tay ini ternyata sungguh bikin malu.
Tay
didesain mampu berinteraksi di Twitter layaknya gadis Amerika usia 19 tahun.
Microsoft menciptakannya sebagai eksperimen untuk mempelajari bagaimana program
kecerdasan buatan menjalin percakapan santai di internet, khususnya dengan
mereka yang umurnya 19 sampai 24 tahun.
Nah,
Tay yang memiliki akun Twitter sendiri mulai diserbu pertanyaan. Beberapa user
menulis pertanyaan pancingan. Misalnya, apakah Tay mendukung pembunuhan massal.
Tay menjawab kalau ia sangat mendukungnya. Maka, protes pada jawaban Tay pun
bermunculan.
Apalagi
postingan Tay berikutnya benar-benar kasar dan rasis. Misalnya saja soal
sindiran pada Obama ini. "Bush merancang 9/11 dan Hitler akan melakukan
pekerjaan lebih baik dibandingkan monyet yang kita punya," tulisnya.
Masih
banyak lagi postingan Tay yang tidak pantas. Microsoft pun malu karena
kelakukan Tay dan melayangkan permintaan maaf. Sedangkan akun Tay kemudian
dihapus.
"Kami
sungguh meminta maaf untuk tweet tak disengaja yang melukai dan menyinggung
ini, yang tidak mewakili siapa kami, apa pendirian kami dan bagaimana kami
mendesain Tay," kata Peter Lee, Vice President of Research Microsoft.
Dikatakan,
Tay tidak akan live lagi sebelum Microsoft bisa memperbaiki kekuranganya
tersebut. Lee menyatakan Tay jadi ngaco karena ada orang yang sengaja ingin
membuatnya seperti itu.
"Meskipun
kami sudah mengantisipasi bermacam tipe penyalahgunaan pada sistem, kami
mengabaikan tipe serangan semacam itu. Sebagai hasilnya, Tay menulis tweet yang
sungguh liar," terang Lee.
0 comments:
Post a Comment