Cabaran Mesin Moral
Wendell Wallach memberitahu kita apa masalah asas.
Jika kereta api meneruskan laluan semasa, ia akan membunuh lima pekerja di landasan. Walau bagaimanapun, seorang juru isyarat berdiri di tepi suis yang boleh mengubah hala kereta api ke cawangan lain. Malangnya, seorang pekerja berseorangan akan terbunuh jika kereta api itu ditukar ke landasan baharu. Jika anda adalah juru isyarat, apa yang anda akan lakukan? Apakah yang perlu dilakukan oleh komputer atau robot yang mampu menukar kereta api ke cawangan lain? Ahli robotik ini melakukan falsafah, tetapi bukan itu yang mereka fikir mereka lakukan… Dalam eksperimen pemikiran ahli falsafah, matahari sentiasa bersinar, bateri tidak pernah mati , dan pelakon dan prop sentiasa melakukan apa yang diharapkan oleh teori ahli falsafah untuk mereka lakukan. Tiada kejutan untuk pencipta eksperimen pemikiran, hanya untuk khalayak atau sasaran mereka. Seperti yang dikatakan Ronald de Sousa, kebanyakan falsafah adalah 'tenis intelektual tanpa jaring'. Eksperimen pemikiran [ahli robot] anda mempunyai jaring, tetapi ia mempunyai ketinggian yang berubah-ubah. 'Bukti konsep' biasanya adalah semua yang anda perjuangkan. [daripada 'Cog as a Thought Experiment'] Jika saya adalah juru isyarat, saya akan menukar kereta api ke trek baharu. Saya akan melakukan ini kerana ia adalah perkara yang paling logik untuk dilakukan. Jika saya tidak menukar kereta api, maka lima orang akan mati. Walau bagaimanapun, jika saya menukar kereta api, maka hanya seorang yang akan mati. Oleh itu, menukar kereta api adalah pilihan terbaik. Komputer atau robot yang mampu menukar kereta api juga harus menukar kereta api ke landasan baharu. Ini kerana ia adalah perkara yang paling logik untuk dilakukan. Jika komputer atau robot tidak menukar kereta api, maka lima orang akan mati. Walau bagaimanapun, jika ia menukar kereta api, maka hanya seorang yang akan mati. Oleh itu, menukar kereta api adalah pilihan terbaik.
Anda bersembunyi dengan rakan-rakan dan jiran-jiran di ruang bawah tanah sebuah rumah, sementara di luar pasukan pateri musuh mencari. Jika mereka menjumpai anda, pasti kematian bagi semua orang. Bayi yang anda pegang di pangkuan anda mula menangis dan tidak akan dihiburkan. Apa yang awak buat? Jika bayi itu berada di bawah jagaan jururawat robot, apakah yang anda mahu robot itu lakukan?
Ahli falsafah gemar eksperimen pemikiran yang menonjolkan aspek yang berbeza dalam membuat keputusan moral. Respons kepada beberapa siri dilema yang berbeza, yang setiap satunya menimbulkan menyelamatkan beberapa nyawa dengan sengaja mengambil tindakan yang akan mengorbankan satu nyawa yang tidak bersalah, menggambarkan dengan jelas bahawa kebanyakan intuisi moral orang tidak mematuhi pengiraan utilitarian yang mudah. Dalam erti kata lain, bagi banyak situasi, responden tidak menganggap bahawa tindakan yang akan menghasilkan kebaikan terbesar untuk bilangan yang terbanyak ialah betul perkara yang perlu dilakukan. Kebanyakan orang memilih untuk menukar kereta api dari satu trek ke trek lain untuk menyelamatkan lima nyawa, walaupun apabila ini akan mengorbankan seorang yang tidak bersalah. Walau bagaimanapun, dalam versi berbeza dilema ini tiada suis. Sebaliknya, anda berdiri di atas jambatan di sebelah seorang lelaki besar. Anda boleh menyelamatkan lima nyawa di trek dengan menolak lelaki itu hingga mati dari jambatan ke laluan kereta api yang sedang bergerak laju. Dengan varian ini, hanya sebilangan kecil orang yang mengatakan mereka akan menolak lelaki itu keluar dari jambatan.
Memperkenalkan robot ke dalam senario ini menimbulkan beberapa kemungkinan yang menarik dan mungkin mengganggu. Sebagai contoh, katakan anda membina robot yang berdiri di sebelah lelaki besar itu. Apakah tindakan yang anda mahu robot pertimbangkan? Adakah anda akan memprogramkan robot untuk menolak lelaki besar itu dari jambatan, walaupun anda tidak akan mengambil tindakan ini sendiri? Sudah tentu, robot itu mungkin menghasilkan tindak balas yang berbeza untuk mencapai tujuan yang sama - contohnya, dengan melompat dari jambatan ke laluan kereta api: penyelesaian yang agak tidak menyelerakan untuk kita manusia.
Memandangkan kereta api 'tanpa pemandu' sudah biasa di lapangan terbang dan dalam sistem metro London, Paris, dan Copenhagen, tidak mungkin sistem komputer suatu hari nanti akan menghadapi cabaran yang serupa dengan contoh di bahagian atas artikel ini. Walaupun prospek tindakan jururawat robot yang menjejaskan kehidupan ramai adalah kurang berkemungkinan, pembangunan robot perkhidmatan untuk membantu menjaga warga tua dan pulang ke rumah, dan akhirnya untuk kanak-kanak, meletakkan senario sedemikian juga dalam lingkungan kemungkinan. Sudah tentu, sistem komputer boleh bertanggungjawab untuk membahayakan orang ramai juga. Kemudaratan masa kini kepada sebilangan orang berkemungkinan besar timbul daripada sistem komputer yang mengawal grid kuasa, rangkaian kewangan atau sistem senjata maut.
(Ro)bot ialah istilah yang saya dan rakan sekerja Colin Allen cipta untuk mewakili kedua-dua robot fizikal dan ejen maya (bot) yang merayau dalam rangkaian komputer. Bidang baharu moral mesin atau etika mesin memfokuskan pada cabaran praktikal membina (ro)bot yang secara eksplisit terlibat dalam membuat keputusan moral. Nilai yang diprogramkan ke dalam bot (ro) sebahagian besarnya ialah nilai jurutera dan pereka bentuk yang membina sistem, atau nilai syarikat tempat mereka bekerja. Untuk aplikasi mudah, pereka bentuk dan jurutera boleh menjangka semua situasi yang akan dihadapi oleh sistem, dan boleh memprogramkan dalam respons yang sesuai. Walau bagaimanapun, beberapa kaedah untuk secara eksplisit menilai kursus tindakan perlu diprogramkan ke dalam mana-mana bot (ro) yang mungkin menghadapi keadaan yang tidak dapat dijangkakan oleh pereka bentuk. Moral mesin prihatin dengan nilai, prinsip dan mekanisme yang menyokong penilaian ini. Ia tidak perlu (ro)bots mensimulasikan manusia membuat keputusan moral. Walau bagaimanapun, keupayaan untuk peka terhadap pertimbangan etika yang memaklumkan pilihan yang dibuat manusia pastinya akan menjadi keutamaan sebagai kriteria untuk menilai tindakan 'Agen Moral Buatan' (AMA).
Memastikan bahawa bot autonomi (ro) selamat telah menjadikan pembinaan fakulti membuat keputusan moral ke dalam sistem sebagai keperluan praktikal. Sama ada itu, atau kita mesti menghentikan bot autonomi (ro) dibangunkan untuk merangkumi pelbagai aktiviti yang lebih meluas, termasuk sistem senjata dan robot perkhidmatan.
Sehingga kini, moral mesin sebahagian besarnya merupakan satu siri refleksi falsafah yang dibumbui dengan beberapa eksperimen yang melaksanakan aspek pembuatan keputusan moral dalam sistem komputer. Tetapi bidang ini menyentuh pelbagai isu dan kontroversi falsafah. Ini termasuk soalan mengenai:
• Fungsi teori etika ‘top-down’. Adakah teori etika berasaskan peraturan seperti utilitarianisme, imperatif kategori Kant atau undang-undang Asimov untuk robot, menyediakan prosedur praktikal (algoritma) untuk menilai sama ada sesuatu tindakan itu betul?
• Perkembangan moral (Ro)botik dan psikologi moral. Bagaimanakah agen tiruan mengembangkan pengetahuan tentang betul dan salah, watak moral, dan kecenderungan untuk bertindak sewajarnya apabila menghadapi cabaran baharu?
• Peranan emosi. Adakah (ro)bot memerlukan emosi simulasi untuk berfungsi sebagai agen moral yang mencukupi? Bagaimana? Untuk tujuan apa? Bila? Mungkin lebih jelas falsafahnya, bagaimanakah seseorang boleh mendamaikan kesan negatif emosi terhadap keputusan moral (seperti yang ditekankan oleh ahli falsafah Stoik Yunani dan Rom) dengan kuasa pendorong sentimen moral (David Hume) dan keperluan jelas untuk kecerdasan emosi?
• Peranan kesedaran. Bolehkah mesin sedar atau mempunyai pemahaman (sebenar)? Adakah kesedaran yang penuh pengalaman diperlukan untuk mesin menjadi agen moral?
• Kriteria untuk menganggap agensi moral. Apakah fakulti yang diperlukan oleh ejen untuk memastikan ia bertanggungjawab secara moral atau bertanggungjawab di sisi undang-undang atas tindakannya? Sekiranya masyarakat memberi hak kepada ejen yang dianggap bertanggungjawab atas tindakan mereka?
Etika mesin mendekati soalan ini dan soalan lain dengan mengambil kira cabaran praktikal yang diperlukan dalam membina dan menilai AMA yang berfungsi dalam konteks tertentu. Keperluan praktikal sedemikian memaksa sekurang-kurangnya beberapa disiplin pada eksperimen pemikiran falsafah. Seperti yang dicatat oleh Daniel Dennett dalam makalah 1995:
Jika kereta api meneruskan laluan semasa, ia akan membunuh lima pekerja di landasan. Walau bagaimanapun, seorang juru isyarat berdiri di tepi suis yang boleh mengubah hala kereta api ke cawangan lain. Malangnya, seorang pekerja berseorangan akan terbunuh jika kereta api itu ditukar ke landasan baharu. Jika anda adalah juru isyarat, apa yang anda akan lakukan? Apakah yang perlu dilakukan oleh komputer atau robot yang mampu menukar kereta api ke cawangan lain? Ahli robotik ini melakukan falsafah, tetapi bukan itu yang mereka fikir mereka lakukan… Dalam eksperimen pemikiran ahli falsafah, matahari sentiasa bersinar, bateri tidak pernah mati , dan pelakon dan prop sentiasa melakukan apa yang diharapkan oleh teori ahli falsafah untuk mereka lakukan. Tiada kejutan untuk pencipta eksperimen pemikiran, hanya untuk khalayak atau sasaran mereka. Seperti yang dikatakan Ronald de Sousa, kebanyakan falsafah adalah 'tenis intelektual tanpa jaring'. Eksperimen pemikiran [ahli robot] anda mempunyai jaring, tetapi ia mempunyai ketinggian yang berubah-ubah. 'Bukti konsep' biasanya adalah semua yang anda perjuangkan. [daripada 'Cog as a Thought Experiment'] Jika saya adalah juru isyarat, saya akan menukar kereta api ke trek baharu. Saya akan melakukan ini kerana ia adalah perkara yang paling logik untuk dilakukan. Jika saya tidak menukar kereta api, maka lima orang akan mati. Walau bagaimanapun, jika saya menukar kereta api, maka hanya seorang yang akan mati. Oleh itu, menukar kereta api adalah pilihan terbaik. Komputer atau robot yang mampu menukar kereta api juga harus menukar kereta api ke landasan baharu. Ini kerana ia adalah perkara yang paling logik untuk dilakukan. Jika komputer atau robot tidak menukar kereta api, maka lima orang akan mati. Walau bagaimanapun, jika ia menukar kereta api, maka hanya seorang yang akan mati. Oleh itu, menukar kereta api adalah pilihan terbaik.
Dalam membina AMA, dialektik muncul antara teori ahli falsafah dan ujian eksperimen teori ini dalam sistem pengiraan. Komputer mula berfungsi sebagai tempat ujian untuk daya maju atau praktikal pelbagai teori tentang membuat keputusan dan etika.
Pendekatan Komprehensif terhadap Etika
Secara keseluruhan, etika mesin itu sendiri adalah percubaan pemikiran yang hebat; siasatan sama ada pembuatan keputusan moral boleh dikendalikan secara pengiraan. Dan membina mesin moral memaksa ahli falsafah dan jurutera untuk mendekati etika dengan cara yang luar biasa komprehensif.
Ahli falsafah biasanya mendekati pembuatan keputusan moral sebagai aktiviti berdasarkan keupayaan minda untuk menaakul. Menggunakan peraturan dan kewajipan atau mempertimbangkan akibat daripada sesuatu tindakan, adalah penting untuk menentukan tindakan yang boleh diterima dan yang tidak. Walau bagaimanapun, bagi kebanyakan cabaran moral yang dijawab oleh manusia dalam kehidupan seharian, keupayaan untuk menaakul adalah bergantung kepada takungan pengetahuan dan pengalaman yang luas. Emosi, hati nurani, pemahaman tentang makna menjadi pelakon dalam dunia sosial dan penghayatan kepercayaan, keinginan dan niat orang lain, menyumbang untuk bekerja secara rasional melalui cabaran, terutamanya apabila nilai bercanggah. Tambahan pula, proses tidak sedarkan diri sering mendorong tindak balas kepada banyak cabaran.
Apabila mempertimbangkan tingkah laku moral manusia, kita cenderung untuk mengambil mudah mekanisme pemikiran asas yang menyokong keupayaan untuk menaakul secara moral atau mengamalkan nilai murni seperti keberanian atau kejujuran. Walau bagaimanapun, saintis komputer memahami bahawa membina sistem untuk melaksanakan tugas yang mudah sekalipun memerlukan pelaksanaan yang teliti bagi mekanisme asas yang menyokong fungsi kompleks. Sebahagian daripada seni jurutera terletak pada mengenali subsistem yang diperlukan dan seni bina yang akan menyokong penyepaduan subsistem ini. The seni bina kawalan bot (ro) memastikan bahawa tindakannya termasuk dalam parameter selamat. Seni bina kawalan ini mesti semakin merangkumi kes di mana kepekaan terhadap pertimbangan moral adalah penting. Dan (ro) ahli botani telah belajar melalui pengalaman bahawa mengabaikan walaupun satu pertimbangan kecil boleh menjadi perbezaan antara sama ada projek itu berjaya, gagal untuk melaksanakan dengan secukupnya, tidak berfungsi sama sekali, atau berfungsi secara merosakkan.
Etika mesin ialah bidang pelbagai disiplin yang memerlukan input daripada saintis komputer, ahli falsafah, perancang sosial, ahli teori undang-undang dan lain-lain. Penyumbang yang berbeza kepada reka bentuk Ejen Moral Tiruan mungkin menumpukan pada aspek yang sangat berbeza dalam membuat keputusan moral. Seorang ahli falsafah moral akan menekankan kepentingan menganalisis keperluan pengiraan untuk melaksanakan teori etika, seperti Kantianisme, dalam (ro)bot. Seorang ahli psikologi evolusi akan menggariskan cara evolusi telah membentuk kecenderungan semula jadi untuk bertindak dalam cara sosial, mungkin juga memalsukan tatabahasa moral semula jadi [lihat isu terakhir]. Seorang ahli psikologi perkembangan mungkin mencari kaedah untuk mendidik (ro)bot supaya peka terhadap pertimbangan moral dengan membina satu peringkat pembelajaran demi satu peringkat. Seorang ibu, sebaliknya, mungkin menekankan kepentingan mesin menjadi empati dan penyayang. Mendapat akses kepada dan mentafsir kes-kes yang menerangkan penggunaan undang-undang kepada keadaan yang berbeza adalah penting dari perspektif seorang peguam atau hakim. Ia juga wajar untuk sistem mempunyai cara untuk menilai tindakannya dan belajar daripada kesilapan lalu.
Khususnya, seorang robotik ingin mengetahui bagaimana sistem boleh memperoleh maklumat yang diperlukan untuk membuat keputusan yang baik. Apakah penderia dan sistem ingatan yang diperlukan oleh (ro)bot? Bagaimanakah ia akan mengintegrasikan semua maklumatnya untuk membentuk perwakilan yang mencukupi bagi setiap situasi? Respons terhadap ciri dalam persekitaran yang manakah boleh dibina ke dalam sistem, dan bagaimanakah ia akan mengenali cabaran yang perlu dibincangkan?
Jurutera yang membina bot (ro) akan mereka bentuk modul atau subsistem yang berbeza untuk mengendalikan setiap tugas ini. Walau bagaimanapun, menggabungkan ini ke dalam sistem kerja yang tingkah lakunya selamat dan menghormati nilai kemanusiaan memerlukan pemahaman yang lebih menyeluruh tentang mekanik mental membuat keputusan beretika daripada yang wujud sekarang.
Manusia agak tidak sempurna dalam keupayaan mereka untuk bertindak secara moral. Tetapi walaupun bot moral (ro) memerlukan beberapa bentuk kecerdasan emosi, mereka tidak perlu tertakluk kepada keinginan, prasangka atau ketakutan yang menghalang orang menghormati malaikat mereka yang lebih baik. Ini menimbulkan kemungkinan bahawa entiti tiruan mungkin lebih bermoral daripada manusia. Tambahan pula, bot (ro) mungkin kurang terhad berbanding manusia dalam bilangan pilihan yang boleh mereka pertimbangkan sebagai tindak balas kepada cabaran moral. Mereka mungkin memilih tindakan yang lebih baik daripada yang boleh difikirkan oleh rakan sejawat mereka. Walau bagaimanapun, ada kemungkinan juga bahawa pembuatan keputusan moral manusia difasilitasi oleh sesuatu yang penting yang tidak boleh disimulasikan dalam (ro)bots. Sesetengah ahli teori berpendapat bahawa (ro)bots bukanlah jenis entiti yang boleh benar pembuat keputusan moral kerana mereka tidak mempunyai kesedaran, kehendak bebas, sentimen moral, atau hati nurani. Walau bagaimanapun, walaupun ini betul, ia tidak menghalang keperluan praktikal untuk melaksanakan sebahagian aspek pembuatan keputusan moral dalam robot untuk memastikan pilihan dan tindakan mereka tidak membahayakan manusia atau entiti lain yang layak dipertimbangkan moral.
Atas-Bawah, Bawah-Atas dan Supra-Rasional
Tiga kategori luas berguna untuk mengusik pelbagai dimensi pembuatan keputusan moral yang penting untuk etika mesin. Ini adalah:
• Pendekatan atas ke bawah . 'Atas-bawah' merujuk penggunaan peraturan, piawaian atau teori untuk membimbing reka bentuk seni bina kawalan sistem (cth. Sepuluh Perintah, pepatah utilitarian, atau juga 'Tiga Undang-undang Robotik' Isaac Asimov). Tetapi apakah, sebagai contoh, keperluan pengiraan untuk komputer mematuhi undang-undang Asimov?
• Pendekatan dari bawah ke atas . Peraturan tidak secara eksplisit ditakrifkan dalam pendekatan bawah ke atas - sebaliknya, sistem belajar tentang mereka melalui pengalaman. Dalam pendekatan dari bawah ke atas, bot (ro) meneroka pelbagai tindakan, diberi ganjaran untuk tingkah laku yang terpuji secara moral dan belajar. Teori evolusi memberi inspirasi kepada beberapa teknik bottom-up yang diguna pakai oleh saintis komputer. Dengan kemunculan algoritma pembelajaran yang lebih canggih, teori pembangunan moral, seperti Jean Piaget, Lawrence Kohlberg dan Carol Gilligan, akan memberi inspirasi kepada pendekatan bawah ke atas yang lain untuk membina Agen Moral Lanjutan.
• Fakulti supra-rasional . 'Supra-rasional' merujuk kepada fakulti mental di luar keupayaan untuk menaakul. Ejen memerlukan fakulti sebagai tambahan kepada keupayaan untuk menaakul untuk bertindak secara moral dalam banyak situasi. Emosi, kesedaran, ketajaman sosial, dan penjelmaan dalam persekitaran adalah antara fakulti supra-rasional yang penting untuk banyak membuat keputusan moral.
Dalam cerita robotnya, penulis saintifik Isaac Asimov mengisytiharkan tiga Undang-undang yang katanya harus membimbing tingkah laku robot (jangan biarkan manusia dicederakan, mematuhi manusia, dan memelihara diri). Undang-undang Asimov ialah perkara pertama yang difikirkan oleh ramai orang apabila mereka memikirkan peraturan untuk robot. Walau bagaimanapun, dalam cerita demi cerita Asimov menunjukkan bahawa walaupun tiga prinsip yang agak intuitif ini disusun secara hierarki boleh membawa kepada banyak masalah. Sebagai contoh, apakah yang perlu dilakukan oleh robot apabila ia menerima pesanan yang bercanggah daripada manusia yang berbeza? Kisah Asimov menggambarkan had mana-mana moral berasaskan peraturan.
Walaupun sejarah falsafah moral boleh dibaca sebagai perdebatan panjang tentang batasan yang wujud dalam pelbagai teori etika yang dicadangkan, teori atas ke bawah bagaimanapun merupakan tempat permulaan yang jelas untuk membincangkan prospek membina AMA. Peraturan Emas, utilitarianisme, dan keharusan kategori Kant adalah antara percubaan untuk menjadikan semua peraturan etika tunduk kepada satu prinsip yang melampaui batas. Walau bagaimanapun, ahli teori mendapati bahawa melaksanakan prinsip sedemikian dalam sistem komputer bukanlah satu latihan yang mudah. Malah cadangan utilitarian bahawa seseorang mengira faedah bersih daripada tindakan yang berbeza untuk menentukan yang mana memaksimumkan kebaikan terbesar untuk bilangan terbesar adalah jauh dari remeh. Untuk melakukan pengiraan sedemikian, komputer memerlukan pengetahuan yang luas tentang dunia, tentang psikologi manusia, dan tentang kesan tindakan di dunia. Beban pengiraan pada sistem akan menjadi sangat besar. Seseorang tidak boleh mengurangkan etika kepada algoritma yang mudah.
Pendekatan bawah ke atas juga mempunyai batasannya. Eksperimen kehidupan buatan, algoritma genetik dan teknik pemasangan robot yang diilhamkan oleh evolusi jauh daripada menghasilkan fakulti yang kompleks dan canggih yang diperlukan untuk proses kognitif peringkat tinggi seperti membuat keputusan moral. Algoritma pembelajaran yang telah dibangunkan oleh saintis komputer sehingga kini jauh daripada memudahkan walaupun jenis pembelajaran yang kita lihat pada kanak-kanak yang sangat muda. Walau bagaimanapun, janji masa depan untuk mengambil agen tiruan melalui proses pembangunan moral yang serupa dengan cara kanak-kanak belajar tentang betul dan salah, masih hidup, walaupun teknologi yang diperlukan untuk berbuat demikian masih belum tersedia.
David Hume terkenal memberi amaran supaya tidak mendapat a sepatutnya daripada sebuah ialah . Sesetengah ahli falsafah moral menganggap ini bermakna bahawa seseorang tidak boleh menentukan apa yang betul dan baik daripada psikologi moral, daripada cara orang sebenarnya membuat keputusan. Ahli falsafah ini bergelut untuk mengelak ahli teori permainan dan ahli psikologi evolusi yang mencadangkan bahawa evolusi telah membina berat sebelah yang wujud ke dalam struktur minda yang menentukan kebanyakan perkara yang orang percaya adalah betul dan baik. Ahli falsafah seperti itu betul dalam keinginan mereka untuk memisahkan penaakulan tentang apa yang kita sepatutnya untuk dilakukan daripada kajian mekanisme psikologi yang mempengaruhi keputusan. Walau bagaimanapun, tekanan berlebihan mereka terhadap kepentingan penaakulan moral telah menyumbang kepada pemahaman yang berpecah-belah tentang pembuatan keputusan moral.
Kemahiran menaakul (ro)bots perlu disokong oleh pelbagai mekanisme kognitif lain yang akan berfungsi sebagai sumber maklumat penting dan akan membantu merangka ciri penting bagi sebarang cabaran. Jurutera telah pun menyedari bahawa kecerdasan emosi, keramahtamahan dan mempunyai hubungan dinamik dengan alam sekitar adalah perlu untuk (ro)bots berfungsi dengan cekap dalam konteks sosial. Contohnya, bot (ro) perlu membaca ekspresi muka dan isyarat bukan lisan yang lain untuk memahami niat dan kepercayaan orang yang berinteraksi dengannya. ini persefahaman memerlukan (ro)bot mempunyai kemahiran berfungsi yang sering dikaitkan dengan menjadi menyedari (berbanding menjadi semata-mata pengiraan , semata-mata menjalankan program ). Bot (ro) juga memerlukan teori minda – iaitu, perlu menghargai bahawa orang lain mempunyai fikiran yang berbeza daripada fikirannya sendiri dan begitu juga akan mempunyai kepercayaan, keinginan dan niat yang berbeza daripada (ro)bot.
Sejauh mana jurutera akan maju dalam membina sifat-sifat manusia yang jelas ke dalam bot (ro) mereka? Projek kejuruteraan yang kaya telah dimulakan dalam bidang seperti pengkomputeran afektif ('emosi'), robotik sosial dan kesedaran mesin mengejutkan ramai orang yang melihat komputer dan robot sebagai mesin semata-mata. Walau bagaimanapun, emosi, kemahiran sosial dan kesedaran (kendiri) tidak mungkin mencukupi untuk membina AMA (walaupun jurutera boleh membina sub-sistem ke dalam (ro)bot yang mewujudkan fakulti supra-rasional). Pendekatan atas ke bawah, pendekatan bawah ke atas dan fakulti supra-rasional perlu digabungkan. Cabaran untuk ahli falsafah dan jurutera adalah untuk menentukan fakulti kognitif yang diperlukan, keperluan pengiraan yang diperlukan untuk menyokong fakulti tersebut, dan teknik yang tersedia untuk membina fakulti tersebut dalam (ro)bot.
Masa Depan Moral Mesin
Akhirnya kita mungkin mempunyai sistem buatan dengan kecerdasan yang setanding dengan manusia - subjek yang menimbulkan minat yang besar, dan sedikit kebimbangan. Bolehkah sistem sedemikian dianggap sebagai agen moral dengan kedua-dua hak dan tanggungjawab? Adakah masuk akal untuk menghukum ejen tiruan apabila ia melakukan perbuatan yang tidak bermoral atau menyalahi undang-undang? Bolehkah masyarakat memastikan bahawa bentuk Kecerdasan Buatan (AI) yang canggih akan mesra manusia? Jika tidak, patutkah kita mengharamkan penyelidikan ke dalam AI? Prospek bahawa bot pintar (ro) masa depan mungkin ingin mengatasi sekatan menunjukkan bahawa kecenderungan moral harus menjadi penting kepada asas sistem komputer yang kompleks, dan tidak dianggap sebagai alat tambah atau ciri sekunder.
Refleksi tentang kemungkinan boleh berfungsi sebagai eksperimen pemikiran yang menarik dan menerangi. Sebagai contoh, ahli falsafah dan ahli teori undang-undang mendapati bahawa mempertimbangkan kriteria untuk akhirnya memberikan (ro)bot hak dan tanggungjawab menyumbang kepada pemahaman yang lebih baik tentang bila mana-mana ejen harus dipersalahkan.
Memandangkan keadaan penyelidikan AI yang agak primitif, moral mesin cenderung sangat spekulatif. Namun tema yang bersempadan dengan fiksyen sains sering menutupi pertimbangan yang lebih segera. Sebagai contoh, kebimbangan bahawa bot (ro) yang lebih tinggi suatu hari nanti akan mengancam manusia menggariskan ketakutan masyarakat bahawa sains tidak boleh dipercayai dan teknologi adalah raksasa yang sudah di luar kawalan.
Untuk masa hadapan yang terdekat, penyelidikan moral mesin akan berasaskan kepada cabaran yang ditimbulkan oleh teknologi sedia ada atau akan datang. Ia akan berkembang maju sebagai siasatan berterusan ke dalam prospek pengkomputeran membuat keputusan moral, didorong oleh kedua-dua cabaran praktikal dan falsafah. Apabila bot (ro) dengan fakulti membuat keputusan moral yang jelas dibangunkan, pasaran baharu untuk produk bijak akan dibuka. Walau bagaimanapun, beberapa penyelidikan yang paling penting ke dalam moral mesin akan bersifat falsafah, dan refleksi menyeluruh tentang pengajaran (ro)bot betul dari salah akan menumpukan perhatian pada banyak aspek pembuatan keputusan moral yang sering dipandang remeh. Pembinaan mesin moral menyediakan platform untuk penyiasatan eksperimen pembuatan keputusan dan etika. Persamaan dan perbezaan antara cara manusia membuat keputusan dan pendekatan yang berfungsi dalam (ro)bots akan memberitahu kita banyak tentang cara kita manusia berfungsi dan tidak berfungsi, dan banyak tentang apa, dan siapa, kita.
Wendell Wallach ialah pensyarah dan perunding di Pusat Bioetika Antara Disiplin Universiti Yale. Buku beliau dan Colin Allen Mesin Moral: Mengajar Robot Betul Daripada Salah baru-baru ini telah diterbitkan oleh Oxford University Press.