手術が必要で、無料で受けられるが、人間の監督なしで自律型ロボットが行うとしたらどうでしょうか?リスクを取って、何か問題が起きた場合の責任をすべて受け入れますか?
私たちはすでに多くの信頼を機械に置いていますが、それに気づいていないことが多いです。例えば、重要なメールが途中で内容が変更されることなく受信されると信頼しています。
株式市場に対して入札する自動システムもあります。そこでは各入札で何百万ドルもの取引が行われています(時には大惨事に終わることもありますが)。
軍事分野も別の例であり、自律型兵器がますます普及しています(それらが送り出した人々に反逆しない限り、安価で効率的です)。
では、何十年もの専門知識が必要でありながら、エラーがないことが保証されていない敏感な領域についてはどうでしょうか?医療ミスはまれですが、存在しないわけではありません。
自律型手術ロボットが、最も一般的な10種類の手術で1万人の人間を対象にテストされたとします。まず、どのように、そして倫理的にそれが可能なのか疑問に思うかもしれません。それに対して、これは新薬のテストと同じであり、紙上の統計に基づいて市場に出されるのではなく、複数の層の被験者、つまりその過程で一生障害を負うかもしれない人間によってテストされると答えます。
そしてまた、あなたには選択肢があります:ロボットで無料、または人間で高額。
私の予測では、何か問題が起きた場合に責任を負う人(または会社)が必要だと人々はまず要求するでしょう。
では、起業家が新薬のテストと非常に似たプロセスで保険会社を説得したと想像してみてください。したがって、会社の方針として、何か問題が起きた場合のリスクをカバーすることを受け入れます。これは「統計的に」非常に最小限であり、保険会社はこのリスクをカバーしても最終的には利益を上げるでしょう。
つまり、1万人の被験者でテストされた自律型手術ロボットがあり、何か問題が起きた場合にリスクをカバーする保険会社が存在します。
より多くの人々が「はい」と答えるようになると予測します。リスクを取る価値があるのです。他の人々はロボットに触れられることを拒否するでしょう。それは、人間のように絆を結ぶことができず、最も安全な道を取る(あるいはある種の贅沢)と感じるでしょうから、それは理解できます。
この思考プロセスをさらに広げてみましょう。もし私たちが多惑星文明になり、はるかに「分散」された場合、その選択は可能ではなくなります。怪我をしたときに人間の体を治すために、十分な技能と賢さを持つ機械が必要になるでしょう。
そのような「ロボット」を持つことが、そのような状況で唯一の選択肢となるでしょう。
別の言い方をすれば、AIロボットは現実になるだけでなく、「ドラッグ2.0」とラベル付けされるでしょう。