Bagaimana Big Data Mengubah Kehidupan Sehari-hari di Seluruh Amerika?

Bagaimana Big Data Mengubah Kehidupan Sehari-hari di Seluruh Amerika?
Bagaimana Big Data Mengubah Kehidupan Sehari-hari di Seluruh Amerika?

Video: Webinar The Best Way for Mahasiswa 2024, Juli

Video: Webinar The Best Way for Mahasiswa 2024, Juli
Anonim

Gagasan 'data besar' telah ada di mana-mana, tetapi apakah itu dan bagaimana hal itu mengubah cara kita hidup? Kami duduk dengan ilmuwan data, Harvard PhD dan calon National Book Award Cathy O'Neil untuk mencari tahu.

CT: Mari kita mulai dengan dasar-dasar - apa sebenarnya 'data besar'?

CO: Data besar adalah pendekatan baru untuk memprediksi berbagai hal. Lebih khusus, 'data besar' adalah penggunaan data yang dikumpulkan secara tidak sengaja - seperti cara Anda mencari melalui browser atau apa yang Anda lakukan di Facebook - untuk menyimpulkan hal-hal tentang Anda, seperti apa yang akan Anda beli atau apa afiliasi politik Anda. Ini adalah cara tidak langsung untuk mencari tahu orang. Misalnya, kamera yang mengawasi kami tidak menanyakan 'Apa yang kamu lakukan?' - hanya untuk melihat apa yang kita lakukan.

CT: Dan apa itu algoritma?

CO: Algoritma adalah perhitungan yang [menginterpretasikan] data yang dikumpulkan tentang Anda untuk membuat prediksi. Anggap saja seperti persamaan matematika yang mencoba menjawab pertanyaan yang dibingkai sebagai prediksi, seperti: 'Apakah orang ini akan membeli sesuatu?' atau 'Apakah orang ini akan memilih seseorang?'

CT: Mengapa saya mendengar begitu banyak tentang itu sekarang?

CO: Sebelum 'data besar', ahli statistik akan melakukan hal-hal mahal seperti mengumpulkan orang untuk mengetahui masa depan. Misalnya, mengajukan pertanyaan langsung kepada orang-orang seperti: 'Siapa yang akan Anda pilih?' Sekarang, kami semakin mengandalkan 'data exhaust', yang saya sebut sebagai data yang terus-menerus dikumpulkan tentang Anda, untuk menyimpulkan hal-hal tentang Anda.

Sebelum 'data besar', perusahaan hanya membuat tebakan liar. Sekarang, kita memiliki tebakan liar yang lebih baik. Apa yang mengejutkan adalah bahwa sebagian besar algoritma data besar sangat tidak akurat, dan tidak ada alasan untuk menganggapnya benar. Tapi itu lebih baik dari tebakan liar. Dan itu sebabnya data besar telah lepas landas seperti itu.

CT: Jika mereka tidak akurat, lalu apa yang mereka refleksikan?

CO: Data cacat mengatur bahwa kami memberi mereka makan. Algoritma tidak tahu apa-apa di luar apa yang kita katakan kepada mereka. Jadi ketika kita memiliki data yang tidak rata dan kita memasukkannya ke algoritma, atau data bias, itu akan berpikir itu kenyataan.

Image

Perjalanan Budaya Ailsa Johnson / ©

CT: Apa contoh dunia nyata dari itu?

CO: Contohnya adalah bahwa di Amerika Serikat, orang kulit hitam lima kali lebih mungkin ditangkap karena merokok daripada orang kulit putih. Ini bukan karena orang kulit hitam lebih sering merokok ganja - kedua kelompok merokok ganja dengan kecepatan yang sama. Orang kulit hitam lebih mungkin ditangkap karena hal itu. Jika Anda menyerahkannya ke suatu algoritma, yang kami lakukan, itu akan dengan benar menyimpulkan bahwa orang kulit hitam jauh lebih mungkin, di masa depan, ditangkap karena ganja. Dan kemudian itu akan memberikan skor risiko kriminalitas yang lebih tinggi bagi orang kulit hitam, yang berdampak pada hukuman pidana.

Contoh lain adalah eksperimen pemikiran. Saya akan menggunakan Fox News, karena Fox News baru-baru ini meletus terkait dengan budaya internal seksisme. Eksperimennya adalah 'Apa yang akan terjadi jika Fox News mencoba menggunakan data mereka sendiri untuk membangun algoritma pembelajaran mesin untuk merekrut orang di masa depan?'

Katakanlah kita sedang mencari orang-orang yang sukses di Fox News, misalnya. Itu tergantung bagaimana Anda akan mendefinisikan kesuksesan, tetapi biasanya Anda akan melihat orang-orang yang mendapatkan kenaikan gaji, promosi atau tinggal untuk waktu yang lama. Dari setiap tindakan itu, data akan mencerminkan bahwa wanita tidak berhasil di Fox News. Jika digunakan sebagai algoritma perekrutan, itu akan menyebarkan masalah itu. Itu akan melihat kumpulan pelamar dan akan berkata 'Saya tidak ingin mempekerjakan wanita, karena mereka tidak berhasil di sini. Mereka bukan pegawai yang baik. " Dan itu tidak hanya harus menjadi Berita Fox - setiap budaya perusahaan memiliki bias. Ketika Anda memberi makan data algoritma, bias algoritma kemudian menyebarkannya. Itu terus memperkuat bias yang sudah ada di masyarakat.

CT: Apakah bias itu disengaja?

CO: Saya kira para ilmuwan data tidak berusaha membuat algoritma seksis atau rasis. Tetapi algoritma pembelajaran mesin sangat bagus dalam mengambil pola yang relatif bernuansa, dan kemudian menyebarkannya. Ini bukan sesuatu yang sengaja dilakukan oleh para ilmuwan, tetapi tetap saja bias.

CT: Apa peran yang dimainkan oleh algoritma yang tidak akurat dalam kehidupan kita sehari-hari?

CO: Mereka digunakan dalam segala macam keputusan untuk kehidupan orang - mulai dari penerimaan di perguruan tinggi hingga mendapatkan pekerjaan.

Ada algoritma yang memutuskan bagaimana polisi akan mengawasi lingkungan, serta algoritma yang memutuskan bagaimana hakim akan menghukum terdakwa. Ada algoritma yang memutuskan berapa banyak Anda akan membayar untuk asuransi, atau apa jenis [tingkat bunga] April yang Anda dapatkan pada kartu kredit Anda. Ada algoritma yang memutuskan bagaimana kinerja Anda di pekerjaan Anda, yang digunakan untuk menentukan kenaikan gaji. Ada algoritme di setiap langkah, dari kelahiran hingga kematian.

CT: Jadi di mana itu meninggalkan kita?

CO: Kami telah melompat ke era data besar dan telah melempar algoritma pada setiap masalah yang kami miliki, dengan asumsi algoritma tersebut harus lebih adil daripada manusia - tetapi sebenarnya mereka sama tidak adilnya dengan manusia. Kita harus berbuat lebih baik.

Klik di sini untuk membaca bagian kedua dari wawancara kami dengan Dr O'Neil. Bukunya, The Weapons of Math Destruction: Bagaimana Big Data Meningkatkan Ketimpangan dan Mengancam Demokrasi tersedia sekarang.