Tidak, AI Google tidak hidup

Tidak, AI Google tidak hidup

Menurut an kisah yang membuka mata di Washington Post pada hari Sabtu, seorang insinyur Google mengatakan bahwa setelah ratusan interaksi dengan sistem AI yang belum pernah dirilis yang disebut LaMDAia percaya program tersebut telah mencapai tingkat kesadaran.

Dalam wawancara dan pernyataan publik, banyak komunitas AI menolak klaim insinyur, sementara beberapa menunjukkan bahwa kisahnya menyoroti bagaimana teknologi dapat mengarahkan orang untuk menetapkan atribut manusia padanya. Tetapi keyakinan bahwa AI Google dapat hidup bisa dibilang menyoroti ketakutan dan harapan kami atas apa yang dapat dilakukan teknologi ini.

LaMDA, yang merupakan singkatan dari “Language Model for Dialog Applications,” adalah salah satu dari beberapa sistem AI skala besar yang telah dilatih pada petak besar teks dari internet dan dapat merespons perintah tertulis. Mereka ditugaskan, pada dasarnya, dengan menemukan pola dan memprediksi kata atau kata apa yang harus datang selanjutnya. Sistem seperti itu telah menjadi semakin baik dalam menjawab pertanyaan dan menulis dengan cara yang tampak meyakinkan sebagai manusia — dan Google sendiri mempresentasikan LaMDA Mei lalu dalam sebuah posting blog sebagai salah satu yang dapat “terlibat dalam cara yang mengalir bebas tentang sejumlah topik yang tampaknya tak ada habisnya.” Tetapi hasilnya juga bisa aneh, aneh, mengganggu, dan cenderung bertele-tele.

Insinyur itu, Blake Lemoine, dilaporkan mengatakan kepada Washington Post bahwa dia berbagi bukti dengan Google bahwa LaMDA adalah makhluk hidup, tetapi perusahaan itu tidak setuju. Dalam sebuah pernyataan, Google mengatakan Senin bahwa timnya, yang mencakup ahli etika dan teknologi, “meninjau kekhawatiran Blake sesuai Prinsip AI kami dan telah memberi tahu dia bahwa bukti tidak mendukung klaimnya.”

Pada 6 Juni, Lemoine memposting di Medium bahwa Google menempatkannya pada cuti administratif berbayar “sehubungan dengan penyelidikan masalah etika AI yang saya angkat di dalam perusahaan” dan bahwa dia mungkin akan dipecat “segera.” (Dia menyebutkan pengalaman Margaret Mitchell, yang pernah menjadi pemimpin tim AI Etis Google sampai Google memecatnya pada awal 2021 mengikuti keterusterangannya tentang keluarnya akhir tahun 2020 dari pemimpin bersama Timnit Gebru. Gebru digulingkan setelah pertengkaran internal, termasuk yang terkait dengan makalah penelitian, pimpinan AI perusahaan menyuruhnya untuk menarik diri dari pertimbangan untuk presentasi di konferensi, atau menghapus namanya dari.)

Seorang juru bicara Google mengkonfirmasi bahwa Lemoine tetap dalam cuti administratif. Menurut The Washington Post, dia diberhentikan karena melanggar kebijakan kerahasiaan perusahaan.

Lemoine tidak tersedia untuk komentar pada hari Senin.

Munculnya program komputasi yang kuat yang terus-menerus dilatih pada data besar juga telah menimbulkan kekhawatiran atas etika yang mengatur pengembangan dan penggunaan teknologi tersebut. Dan terkadang kemajuan dilihat melalui lensa apa yang mungkin terjadi, daripada apa yang saat ini mungkin terjadi.

Tanggapan dari komunitas AI terhadap pengalaman Lemoine tersebar di media sosial selama akhir pekan, dan mereka umumnya sampai pada kesimpulan yang sama: AI Google sama sekali tidak mendekati kesadaran. Abeba Birhane, rekan senior di AI yang dapat dipercaya di Mozilla, tweeted pada hari Minggu, “kita telah memasuki era baru ‘jaring saraf ini sadar’ dan kali ini akan menguras begitu banyak energi untuk membantah.”
Gary Marcus, pendiri dan CEO Geometric Intelligence, yang dijual ke Uber, dan penulis buku termasuk “Reboot AI: Membangun Kecerdasan Buatan yang Dapat Dipercaya,” menyebut gagasan LaMDA sebagai makhluk hidup. “omong kosong di atas panggung” dalam sebuah tweet. Dia dengan cepat menulis posting blog menunjukkan bahwa semua sistem AI semacam itu lakukan adalah mencocokkan pola dengan menarik dari basis data bahasa yang sangat besar.
Blake Lemoine berpose untuk potret di Golden Gate Park di San Francisco, California pada Kamis, 9 Juni 2022.

Dalam sebuah wawancara Senin dengan CNN Business, Marcus mengatakan cara terbaik untuk memikirkan sistem seperti LaMDA adalah seperti “versi yang dimuliakan” dari perangkat lunak pelengkapan otomatis yang dapat Anda gunakan untuk memprediksi kata berikutnya dalam pesan teks. Jika Anda mengetik “Saya benar-benar lapar, jadi saya ingin pergi ke”, itu mungkin menyarankan “restoran” sebagai kata berikutnya. Tapi itu prediksi yang dibuat menggunakan statistik.

“Tidak seorang pun harus berpikir pelengkapan otomatis, bahkan pada steroid, sadar,” katanya.

Dalam sebuah wawancara, Gebru, yang merupakan pendiri dan direktur eksekutif dari Lembaga Penelitian AI Terdistribusiatau DAIR, mengatakan Lemoine adalah korban dari banyak perusahaan yang membuat klaim bahwa AI sadar atau kecerdasan umum buatan — sebuah ide yang mengacu pada AI yang dapat melakukan tugas seperti manusia dan berinteraksi dengan kita dengan cara yang berarti — tidak jauh.
Google menawarkan seorang profesor $60.000, tetapi dia menolaknya.  Inilah alasannya
Misalnya, katanya, Ilya Sutskever, salah satu pendiri dan kepala ilmuwan OpenAI, tweeted pada bulan Februari bahwa “mungkin jaringan saraf besar saat ini sedikit sadar.” Dan minggu lalu, wakil presiden Google Research dan rekan Blaise Aguera y Arcas tulis dalam sebuah artikel untuk Economist bahwa ketika dia mulai menggunakan LaMDA tahun lalu, “Saya semakin merasa seperti sedang berbicara dengan sesuatu yang cerdas.” (Bagian itu sekarang termasuk catatan editor yang menunjukkan bahwa Lemoine sejak itu “dilaporkan telah diberhentikan setelah mengklaim dalam sebuah wawancara dengan Washington Post bahwa LaMDA, chatbot Google, telah menjadi ‘hidup.’”)

“Apa yang terjadi hanyalah perlombaan untuk menggunakan lebih banyak data, lebih banyak komputasi, untuk mengatakan bahwa Anda telah menciptakan hal umum yang mengetahui segalanya, menjawab semua pertanyaan Anda atau apa pun, dan itulah drum yang telah Anda mainkan,” kata Gebru. . “Jadi, bagaimana Anda terkejut ketika orang ini bertindak ekstrem?”

Dalam pernyataannya, Google menunjukkan bahwa LaMDA telah menjalani 11 “tinjauan prinsip AI yang berbeda,” serta “penelitian dan pengujian yang ketat” terkait dengan kualitas, keamanan, dan kemampuan untuk menghasilkan pernyataan yang berbasis fakta. “Tentu saja, beberapa komunitas AI yang lebih luas sedang mempertimbangkan kemungkinan jangka panjang dari AI hidup atau umum, tetapi tidak masuk akal untuk melakukannya dengan mengantropomorfisasi model percakapan hari ini, yang tidak hidup,” kata perusahaan itu.

“Ratusan peneliti dan insinyur telah berbicara dengan LaMDA dan kami tidak mengetahui ada orang lain yang membuat pernyataan luas, atau mengantropomorfisasi LaMDA, seperti yang dilakukan Blake,” kata Google.


Source link


Posted

in

by

Comments

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *