Pusat Android

Google masih lamban dan berhati-hati dengan AI dan itu masih bagus

protection click fraud

Tahukah Anda bahwa ada 100.000 orang yang tinggal di Antartika penuh waktu? Tentu saja, Anda tidak melakukannya karena tidak ada. Tetapi jika cukup banyak orang mengetiknya di internet dan mengklaimnya sebagai fakta, pada akhirnya semua chatbot AI akan memberi tahu Anda bahwa ada 100.000 orang dengan tempat tinggal Antartika.

Inilah mengapa AI dalam kondisi saat ini sebagian besar rusak tanpa campur tangan manusia.

Saya suka mengingatkan semua orang — termasuk saya sendiri — bahwa AI bukanlah buatan atau kecerdasan. Ini mengembalikan hasil yang sangat dapat diprediksi berdasarkan input yang diberikan sehubungan dengan data yang dilatihnya.

Kalimat aneh itu berarti jika Anda memberi makan model bahasa dengan baris demi baris yang membosankan dan tidak lucu hal-hal yang dikatakan Jerry lalu tanyakan apa saja, itu akan mengulangi salah satu hal membosankan dan tidak lucu yang pernah saya alami dikatakan. Mudah-mudahan, yang berfungsi sebagai balasan untuk apa pun yang Anda ketik di prompt.

Singkatnya, inilah mengapa Google ingin melambat dalam hal AI gaya obrolan langsung yang menghadap konsumen. Ia memiliki reputasi untuk dilindungi.

Media tentang informasi yang salah seputar pendaratan di bulan
(Kredit gambar: Google)

Internet telah memberi tahu saya bahwa semua yang berhubungan dengan AI yang kami lihat Google I/O 2023 apakah Google berada dalam semacam mode panik dan tanggapan langsung ke beberapa perusahaan lain seperti Microsoft atau OpenAI.

Saya pikir itu omong kosong. Rilis fitur yang lambat persis seperti itu Google telah memberi tahu kami tentang bagaimana rencananya untuk menangani AI konsumen berkali-kali. Sangat keren untuk berpikir bahwa Google bergegas untuk menemukan semua yang kami lihat hanya dalam sebulan sebagai tanggapan atas rilis fitur terbaru Bingbot, tetapi ternyata tidak. Meskipun keren untuk dibayangkan, itu juga bodoh untuk dipercaya.

Ini adalah pendekatan aktual Google di kata-katanya sendiri:

"Kami percaya pendekatan kami terhadap AI harus berani dan bertanggung jawab. Bagi kami itu berarti mengembangkan AI dengan cara yang memaksimalkan manfaat positif bagi masyarakat sambil mengatasi tantangan, dipandu oleh kami Prinsip AI. Meskipun ada ketegangan alami di antara keduanya, kami percaya itu mungkin — dan bahkan kritis — untuk merangkul ketegangan itu secara produktif. Satu-satunya cara untuk benar-benar berani dalam jangka panjang adalah bertanggung jawab sejak awal."

Memaksimalkan hal positif dan meminimalkan kerugian adalah kuncinya. Ya, ada penafian menyeluruh yang mengatakan chatbot ini dan itu mungkin mengatakan hal-hal buruk atau tidak akurat yang melekat pada bot ini, tetapi itu tidak cukup. Perusahaan mana pun yang terlibat dalam pengembangan - dan itu termasuk membuang uang ke perusahaan yang melakukan pekerjaan sebenarnya - harus bertanggung jawab jika ada yang tidak beres. Bukan jika, kapan.

Latar belakang server Google Tensor di atas panggung di Google IO 2023
(Kredit gambar: Michael Hicks)

Inilah mengapa saya menyukai pendekatan yang lambat dan hati-hati yang mencoba bersikap etis dan bukan "ayo buang fitur!!!" pendekatan yang kami lihat dari beberapa perusahaan lain seperti Microsoft. Saya yakin Microsoft peduli dengan etika, kepekaan, dan akurasi dalam hal AI, tetapi sejauh ini sepertinya hanya Google yang menempatkannya di depan setiap pengumuman.

Ini bahkan lebih penting bagi saya karena saya telah menghabiskan beberapa waktu untuk meneliti beberapa hal seputar AI yang berhubungan dengan konsumen. Akurasi itu penting, tentu saja, begitu juga privasi, tetapi saya belajar dari pengalaman pahit bahwa pemfilteran mungkin adalah bagian terpenting.

Saya tidak siap dengan apa yang saya lakukan. Sebagian besar dari kita tidak akan pernah siap untuk itu.

Saya mencari-cari dan menemukan beberapa materi pelatihan yang digunakan untuk bot AI populer yang memberi tahu apa yang terlalu beracun untuk digunakan di dalam model datanya. Ini adalah hal yang seharusnya berpura-pura tidak ada.

Data terdiri dari teks dan citra yang banyak diedit, dan keduanya benar-benar memengaruhi saya. Pikirkan hal terburuk yang dapat Anda bayangkan — ya, itu benda. Beberapa di antaranya bahkan lebih buruk dari itu. Ini adalah konten web gelap yang dibawa ke web biasa di tempat-tempat seperti Reddit dan situs lain tempat pengguna menyediakan konten. Terkadang, konten itu buruk dan bertahan cukup lama untuk dilihat.

penafian Google Bard
(Kredit gambar: Masa Depan)

Melihat ini mengajari saya tiga hal:

1. Orang-orang yang harus memantau media sosial untuk sampah semacam ini sangat membutuhkan dukungan mental yang ditawarkan perusahaan. Dan kenaikan gaji yang sangat besar.

2. Internet adalah alat hebat yang juga digunakan oleh orang-orang paling mengerikan di planet ini. Saya pikir saya cukup berkulit tebal untuk siap melihatnya, tetapi saya tidak dan benar-benar harus meninggalkan pekerjaan beberapa jam lebih awal dan menghabiskan waktu ekstra dengan orang-orang yang mencintai saya.

3. Google dan setiap perusahaan lain yang menyediakan AI tingkat konsumen tidak dapat mengizinkan data seperti ini digunakan sebagai materi pelatihan, tetapi tidak akan pernah dapat menangkap dan menyaring semuanya.

Nomor satu dan dua lebih penting bagi saya, tetapi nomor tiga penting bagi Google. Teks mentah 7GB dari "konten web ofensif" - hanya sebagian kecil dari konten yang saya akses, kata "Obama" digunakan lebih dari 330.000 kali dengan cara ofensif. Berapa kali itu digunakan dengan cara yang tercela di seluruh internet mungkin dua atau tiga kali lipat dari jumlah itu.

Inilah yang dilatih dengan model bahasa AI konsumen. Tidak ada manusia yang memasukkan kaset ticker dari kata-kata tulisan tangan ke komputer. Sebaliknya, "komputer" melihat halaman web dan isinya. Halaman web ini pada akhirnya akan dianalisis dan digunakan sebagai masukan. Begitu juga dengan halaman meme dan gambar. Begitu juga blog tentang bumi yang datar atau pendaratan di bulan yang dipalsukan.

Jika Google harus bergerak perlahan untuk menyingkirkan sebanyak mungkin hal buruk dari AI konsumen, saya mendukungnya. Anda juga harus demikian karena semua ini berkembang menjadi layanan yang Anda gunakan setiap hari di ponsel yang akan Anda beli berikutnya.

instagram story viewer