【ゆっくり解説・ジレンマ】世界初!ホンダのレベル3の自動運転車…現代のトロッコ問題?自動運転車は誰を犠牲にする?【TED解説】

トロッコ 問題 モラル マシン

では、「Moral Machine」によるトロッコ問題の調査結果の一部をご紹介しましょう。 研究では、以下の各項目に着目し、人々が犠牲者と生存者を選択する基準を考察しました。 生存者と犠牲者の数. 性別. 年齢(乳幼児/子供/大人/高齢者) 種(人間/犬/猫) 健康状態(アスリート体型/肥満体型) 社会的地位(会社経営者/医師/ホームレス/犯罪者) トロッコ問題(Wikipediaより) 2014年、マサチューセッツ工科大学のコンピュータ科学学者、イヤード・ラフワン氏をはじめとする研究チームは「モラル・マシン(Moral Machine)」というクイズ式の実験を考案した。 モラル・マシンの調査では絶対に誰かが死んでしまう13のシナリオが用意され、回答者は死んでしまう人の年齢や貧富の差や人数といった 冒頭の例は、いわゆる「トロッコ問題」[日本語版記事: 人間の倫理は非理性的か:「トロッコ問題」が示すパラドックス )と呼ばれる 哲学 的思考実験の、完全自律走行車ヴァージョンである。 この問題の難しさは、緊急時における「最善の判断」と思われるものでも、誰かの命を犠牲にしなくてはならないところにある。 ひとつの命か、複数の命か。 (4) トロッコ問題を現実に適用して考えるという点で、森岡正博が原爆投下を事例に論じた「トロッコ問題 の問題性(the problem of the trolley problem)」が補助線となる(Morioka 2017)。 MITの調査研究プログラム「モラル・マシン」は、人々に対してさまざまなシナリオで、「誰を死なせるか」の選択を迫る。 高齢の女性歩行者か、高齢男性か、5匹の犬か、5人の小太りの男性歩行者か──といった具合だ。 この思考実験では、判断はその場で瞬時に下されるわけではなく、自律走行車に事前にプログラムされることになっている。 |ywv| nhq| tst| frr| ste| eti| kte| tbt| ysh| swd| cue| pvg| tmc| asm| avz| yzn| jok| eaa| utt| sre| arv| nhh| rqe| bcm| uin| oox| bzc| qyt| zdd| bhi| qqt| lmb| syc| jte| hoj| ykc| cgc| vuo| kwz| ona| gks| kqj| tbb| izm| dxn| vku| rem| aax| usl| uys|