どこにひざまずきましたか? 人間とAIが協力することの危険性とは?

出典: Geek Park

著者: Xinxin

画像ソース: Unbounded AIによって生成

「テクノロジーは怠惰な人々によって動かされている!」

誰もが「釣りをしている」ときや「横になっている」ときに自分に言い訳をするためにこの文章を使ったことがあると思います。

蒸気機関の産業革命からコンピュータのデジタル革命まで、技術の進歩は確かに人間をある面でますます平坦にしました。

**次世代プラットフォームになる可能性が最も高いAI技術は、人間を「怠惰」にするのでしょうか?

そう思われますが、それは良いニュースではありません。

学術誌『Frontiers in Robotics and Artificial Intelligence』に掲載された新しい研究によると、人間はAIや機械を扱うとき、本当に「怠惰」です。

この研究の筆頭著者であるCymek氏によると、「チームワークは祝福にも呪いにもなり得る」とのことです。

では、AIの時代において、人類にとって最大の危機は、機械に取って代わられることではなく、「堕落するのが怠惰」なことなのでしょうか?

01 機械助手、人間に「警戒を解く」

機械のような強力な助っ人がいると、人間はより「心が広い」ようになります。

ドイツのベルリン工科大学の研究者は、42人の参加者に回路基板のぼやけた画像を提供し、欠陥をチェックするように依頼しました。 参加者の半数は、自分たちが扱っている回路基板が「パンダ」と呼ばれるロボットによって検査され、欠陥にフラグが立てられたことを知らされました。

模擬基板の品質管理のための外観探索課題の実験 |

実際、ロボット「パンダ」は実験中に94.8%の欠陥を検出しました。 すべての参加者にスキャンした回路基板の同じ320枚の画像が与えられ、研究者が参加者のエラー率を詳しく調べたところ、「パンダ」で作業した参加者は、「パンダ」が多くの欠陥をうまくマークするのを見たため、タスクの後半で欠陥が少ないことがわかりました。

どちらのグループの参加者も、ボードのほぼ全面を調べ、時間をかけて検索し、努力のレベルが高いと自己評価しました。 その結果、ロボットで作業した参加者は平均3.3個の欠陥を発見し、タスクを完了した参加者は平均4.23個の欠陥を発見しました。

両群の参加者が検出した欠陥の平均と標準偏差 |

「このことは、参加者がロボットの仲間と一緒に作業する際に、ボードの検査にあまり注意を払っていない可能性があることを示唆しています」と研究は述べています。 私たちの研究の参加者は、回路基板を検査する努力を続けているように見えましたが、検査は、サンプリング情報への精神的な努力と注意を払わずに行われたようです。

つまり、ロボットが部品をチェックし、ロボットの信頼性を体感したことを伝えれば、欠陥の発見が少なくなります。 無意識のうちに、「パンダ」は欠陥を見逃す可能性が低いと思い込んでおり、「社会的惰性」効果をもたらしているのです。

この研究の意味は、厳格な品質管理に依存している業界にとって特に重要です。 著者らは、ロボットの精度に過度に依存しているために、人間の注意が短時間でも緩和されたとしても、安全性が危険にさらされる可能性があると警告している。

研究者のOnnasch氏は、「シフトが長くなると、タスクがルーチン化し、職場環境がパフォーマンスの監視とフィードバックを少なくすると、モチベーションの低下が大きくなる傾向があります。 製造業、特にダブルチェックが一般的な安全関連分野では蔓延しており、作業成果に悪影響を与える可能性があります。」

もちろん、治験責任医師の検査にはいくつかの制限があります。 例えば、サンプルの大きさが足りず、参加者が監視されていることを知っているため、実験室での「社会的惰性」をシミュレートすることは困難です。 Cymek氏は、「主な制約はラボ環境です。 人間と機械の相互作用における電力損失の問題の大きさを理解するには、ラボの外に出て、ロボットとよく一緒に作業する経験豊富な作業員がいる実際の作業環境で仮説を検証する必要があります。

02 「人間と機械の協調の危機」は既に発生している

実は、実験室の外では、人間と機械の協調による「劣化」が現実の世界にすでに現れています。

自動運転の分野では、「自動化の自己満足」と呼ばれる「社会的惰性」に似た現象があり、通常は自動支援の存在に気を取られます。

2018年3月、米国アリゾナ州で、安全担当官を乗せたUberの自動運転車が自転車をはねて死亡させました。 警察の分析によると、警備員が道路を見ていたら、安全担当官は被害者の12.8メートル前で停止し、悲劇を回避できた可能性があることがわかりました。

2018年、米国の自動運転による死亡者数 |CNN

テスラは、自動運転に関連する事故が原因で、米国でメディアや規制当局の標的になることがよくあります。 典型的なシナリオは、テスラのドライバーが自動運転機能を使用しているときに居眠りをしたり、ゲームをしたりして、致命的な自動車事故に巻き込まれることです。

現在のAIの熱狂の中で、機械が人間に取って代わるという予測はますます現実に近づいています。 一方は機械が人間に仕えると信じ、もう一方は人間が誤って邪悪なものを生み出すと信じています。

医療分野では、IBMのAIシステム「ドクター・ワトソン」ががん患者に危険な投薬アドバイスをしてきました。 今年、ある論文では、ジェネレーティブAIはすでに米国の医師免許試験の3つのセクションに合格していると指摘されています。 似たような移住仮説は、将来、AIが人間を診断して治療し、人間の医師が検査を行うとしたら、人間の医師は「社会的惰性」と「自動化された自己満足」という問題を抱えることになるのだろうか、というものです。

この研究の著者らは、「人間とロボットの能力を組み合わせることは、明らかに多くの機会を提供しますが、人間と機械のチームで発生する可能性のある意図しない群れ効果も考慮する必要があります。 人間とロボットが課題に取り組むと、人間のチームメイトのモチベーションが下がったり、社会的な惰性などの影響が出やすくなったりします」

また、AIが人間の思考や創造性に影響を与えたり、人間関係を弱体化させたりして、現実全体から目をそらすのではないかという懸念もあります。 シリコンバレーのジェネレーティブAIスタースタートアップであるInflectionは、フレンドリーで協力的なコンパニオンとして設計されたチャットボットPiをリリースしました。 創業者によると、円周率は人々が孤独に対処するのを助けるツールであり、打ち明ける人として使うことができるそうです。 批評家は、人々が現実の人間と交流するのではなく、現実から逃避することを可能にすると主張しています。

そして今、人と道具の関係は新たな次元へと進化しています。 家の掃除から人々を救う掃除機や、電話番号を書き留める必要がなくなった携帯電話など、すべてのツールの誕生は実際に人間を怠惰にしました。

しかし、AI技術が従来の技術と異なるのは、思考や選択の作業の多くがAIに委ねられていることであり、AIは基本的にブラックボックスであり、思考の自律性の移転のようなものです。 自動運転に運転の判断を、医療診断をAIシステムに任せた場合、潜在的なコストは、電話番号を覚えられないことによるコストとはまったく異なる可能性があります。

史上初のチャットボットを開発したコンピューター科学者のジョセフ・ヴィーゼンバウムは、科学を「中毒性のある薬物」に例え、複雑な人間の活動にコンピューターを導入するなど、用量の増加により「慢性的な毒」になっており、後戻りはできないかもしれません。

人間が思考力や判断力を機械に与えると、一種の「参考」として、そこには「社会的惰性」や「自動的な自己満足」という悪魔も潜んでおり、作業の繰り返しによる慢性的な毒になるかもしれません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)