banner
ニュース センター
当社の商品は国内はもとより海外地域でも高い評価をいただいております。

ジュリエット・パウエルとアート・クライナー、『AI ジレンマ』の著者

Apr 10, 2024

発行済み

の上

による

『AI のジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれています。

ジュリエット・パウエルは作家であり、9,000 回のライブショーを担当したテレビクリエイターであり、技術者であり社会学者でもあります。 彼女はブルームバーグ TV/ビジネス ニュース ネットワークのコメンテーターでもあり、エコノミスト誌や国際金融公社が主催するカンファレンスでも講演を行っています。 彼女の TED トークは YouTube で 13 万回再生されています。 ジュリエットは、倫理的な AI とデータに頼って勝利を収める成功したビジネス リーダーのパターンと実践方法を特定します。 彼女はニューヨーク大学の ITP の教員として、著書に基づいたコース「責任あるメディアのためのデザイン スキル」を含む 4 つのコースを教えています。

アート・クライナーは作家、編集者、そして未来学者です。 彼の著書には、『The Age of Heretics』、『Who Really Matters』、『Privilege and Success』、『The Wise』などがあります。 彼は、PwC が発行する受賞歴のある雑誌、Strategy+Business の編集者でした。 アート氏は、NYU-ITP と IMA の長年の教員でもあり、責任あるテクノロジーとメディアの未来を共同指導するコースが含まれています。

『The AI Dilemma』は、AI が社会にもたらす利点を認識しながらも、AI テクノロジーが悪者の手に渡ることの危険性に焦点を当てた本です。

基礎となるテクノロジーが非常に複雑で、エンドユーザーがクローズドボックス システムの内部動作を真に理解することが不可能になるため、問題が発生します。

強調されている最も重要な問題の 1 つは、社会の価値観が時間の経過とともに一貫性を保てないことが多いため、責任ある AI の定義が常に変化していることです。

『AIのジレンマ』をとても楽しく読みました。 この本は、AI の危険性をセンセーショナルに宣伝したり、汎用人工知能 (AGI) の潜在的な落とし穴を深く掘り下げたりするものではありません。 その代わりに、読者は私たちの個人データが私たちの知らないうちに使用される驚くべき方法や、AI の現在の制限と懸念される理由のいくつかについて学びます。

以下は、この画期的な本から何を期待できるかを読者に示すことを目的としたいくつかの質問です。

最初に「AI のジレンマ」を書こうと思ったきっかけは何ですか?

ジュリエットは、AI の規制の限界と可能性を研究するためにコロンビアに行きました。 彼女は、AI プロジェクトに携わる友人たちから、それらのプロジェクトに内在する緊張について直接聞いていました。 彼女は、AI のジレンマがあり、自主規制よりもはるかに大きな問題があるという結論に達しました。 彼女は、Apex ベンチマーク モデルを開発しました。これは、企業間および企業内のグループ間の相互作用により、AI に関する意思決定がどのように責任を負わない傾向にあるかを示すモデルです。 それが彼女の博士論文につながりました。

アートはジュリエットとともに多くの執筆プロジェクトに取り組んできました。 彼は彼女の博士論文を読んで、「ここに本がありますよ」と言いました。 ジュリエットは彼を共著に誘った。 一緒に取り組んでみると、彼らはまったく異なる視点を持っていることに気づきましたが、この複雑でリスクの高い AI 現象をより深く理解し、AI を使用する人々がより責任を持って効果的に行動できるようにする必要があるという強い見解を共有しました。

『AI のジレンマ』で強調されている根本的な問題の 1 つは、AI システムに責任があるのか​​、それとも AI システムが社会的不平等を永続させているのかを、そのソース コードを調べるだけでは現時点では理解することが不可能であるということです。 これはどのくらい大きな問題ですか?

問題は主にソースコードにあるわけではありません。 Cathy O'Neil が指摘しているように、クローズドボックス システムがある場合、それはコードだけではありません。 探究する必要があるのは、社会技術システム、つまり人間と技術の力が相互に形成するシステムです。 AI システムを構築してリリースするロジックには、目的の特定、データの特定、優先順位の設定、モデルの作成、機械学習のガイドラインとガードレールの設定、人間がいつどのように介入すべきかを決定することが含まれていました。 それは、少なくとも観察者や監査人に対して透明にする必要がある部分です。 プロセスのこれらの部分が隠蔽されると、社会的不平等のリスクやその他のリスクがはるかに大きくなります。 実際には、ソース コードから設計ロジックを再設計することはできません。