紙の本
ケンタウロス
2019/02/28 10:45
0人中、0人の方がこのレビューが役に立ったと投票しています。
投稿者:とめ - この投稿者のレビュー一覧を見る
我々はどんな世界を創っていきたいのか。AIはバイアスや排斥を増幅してしまう可能性があるため、倫理的優先度の違いへの対応を誤らないようにしなければならないという警告の書。
投稿元:
レビューを見る
<目次>
序章 三つの「スカイネット」の影
第1章 監視される~あなたはAIの目から逃げられない
第2章 差別される~就職試験もローン審査もAI次第?
第3章 殺される~米IT大手が軍事協力
第4章 騙される~あなたの「ポルノ」が作られる
第5章 AIを「邪悪」にさせないために
終章 「21世紀の電気」の使い方
<内容>
AIは確かに恐ろしい。だが、元データを入れているのは人間。操作をするのも人間。結局ここに問題がある。AIが暴走するのはないのではないか、と思うが、それを邪悪な人間がデータを入れ、操作すれば「殺人兵器」も「思想統制」もできるのだろう。そこを防御するための施策が必要だろう。
投稿元:
レビューを見る
AIの問題点、特にその予想される最悪の事態を知りたくて読む。レビューがなかなか良いので期待をしたが、いつの間にか積読。「AIvs教科書が読めない子供たち」を先に読んで、思い出して読み終えた。
「AI vs・・・」の方を先に読んで正解。こちらは情報言が多岐にわたって信頼できるが、数学者でありAI研究者が書いた「AI vs・・・」の方が、冷静にしかも当事者としてしっかりとAIについてみていると思えた。
本書は問題点と対策は分かったが、研究者ではなくジャーナリストが書いているといった感じの本。
面白かったが、引用文が多すぎて、著者の意見にまとめていない感じ。(意見でまとめると、責任が生じるからか、あるいはそれほど揺れ動き、先が見えない世界だから、自分の意見としてまとめなかったのか・・・。)
それ故、他人の意見の要覧といった感じの本になっていて、多少読みずらい(私には会わないという意味)ので、星三つ。
下記にハイライトした個所をコピペ:
30
オレンジ色のハイライト | 位置: 25
中国全土に1億台を超す監視カメラが設置され、警察官らがネットにつながったカメラ付きメガネ「スマートグラス」を着用する。 そしてAIによる顔認識技術を使い、リアルタイムで〝ブラックリスト〟のデータベースと照合して、逃亡中の犯罪の容疑者らを即座に逮捕する。 中国で展開されるAIを使った大規模監視ネットワークもまた、「スカイネット(天網)」と呼ばれて
オレンジ色のハイライト | 位置: 59
あなたは喫煙者か。飲酒はするか。交際相手はいるか──これらは7割前後の確率でわかる。 キリスト教徒かイスラム教徒か。民主党支持か共和党支持か。ゲイかレズビアンか──8割前後の確率でわかる。 さらに性別、そして白人か黒人か、なら9割以上の確率でわかる。 フェイスブックで「いいね!」とクリックした履歴データをたどり、AIで分析していくと、そんなことまで予測できてしまう─
メモフェイスブックのいいねでわかる色々な情報。
オレンジ色のハイライト | 位置: 93
欧州連合(EU)は2018年5月にプライバシーデータ保護を大幅に強化した新法「GDPR」を施行。そんなデータ支配への対策を鮮明に
黄色のハイライト | 位置: 322
この顔認識システムもまた、「スカイネット(天網)」という名前で呼ばれている。
メモ中国にもスカイネットがある。同じ支配者か?
黄色のハイライト | 位置: 327
香港英字紙「サウスチャイナ・モーニングポスト[ 13]」などによると、「スカイネット」は2015年から開発が進められ、2017年までに中国各地で1億7000万台の監視カメラを配備。中国政府は2020年までに、さらに4億台を配備する。 14 億人の国民を、3秒以内に特定することを目指す、という。
黄色のハイライト | 位置: 355
ダレス国際空港などの米税関国境警備局による顔認識で使われていたのは、NECの顔認識AIシステム「ネオフェイス」だ��た[ 17]。 「ネオフェイス」は米国立標準技術研究所(NIST)によるリアルタイムの顔認識の性能評価で、照合精度 99・2%を出し、1位を獲得しているという。2020年東京五輪・パラリンピックでも、大会関係者の会場入場時における本人確認システムとして導入が予定されている[ 18]。
黄色のハイライト | 位置: 621
その大半は男性からのもの。つまり合格者も男性中心となる。 このため、AIは男性の方が採用に適した人材と判断し、その履歴書の評価を高くするようになってしまったという。
メモこれはaiの思考を人間が分析している内容で、実は本当に女性は向かない職なのかも?女性が差別されてはいけないという、人間の側のバイアスの可能性はないのか?差別ではなく、AI はデータより分析したなら、男性と女性を正しく区別して判断したのでは?
黄色のハイライト | 位置: 637
AIを使えば、ずっときめ細かい採用選考が行える、ということのようだ。
メモ資金的な問題はさておいて、逆に仕事探しをAI にまかせ、自分にあった会社を選ばせる方法もあるだろう。採用されるかどうかは別だが、双方でAI を使えば時間も労力も大幅に短縮するだろう。
黄色のハイライト | 位置: 648
AIの学習データには性別、人種のデータは含まれておらず、その判定結果についてのバイアスチェックは行っているという。ただし、その詳細は公開されていない。 ベビーシッター候補者本人が、その結果を知ることもできない。また、AIによる分析への同意を断れば、ベビーシッターの仕事を得られなくなる。
黄色のハイライト | 位置: 652
企業が人材採用の際に、志願者のソーシャルメディアへの投稿をチェックする傾向は、この数年、鮮明になってきた。
黄色のハイライト | 位置: 668
「社会信用システム」は中国国務院が2014年6月、社会規範の向上を旗印に打ち出したプロジェクトだ。目標年次は2020年[8]。 14 億人の国民を対象に「社会信用」のスコアを整備するというものだ。
黄色のハイライト | 位置: 675
「社会信用」が低い人物はブラックリスト化され、飛行機や列車の搭乗が拒否されるなどの制裁措置も科される。
黄色のハイライト | 位置: 817
AIシステムは、それをデザインする人々が何を優先させるか、何に偏見を持っているかによって形づくられていく。それが意識的であろうと、無意識であろうと。私はそれを、〝コード化されたまなざし〟と呼んでいる。
黄色のハイライト | 位置: 1,189
イスラエル製の 徘徊 型兵器「ハーピー」は自律型兵器といえる、という。「ハーピー」が狙うのは敵のレーダー施設だ。 「ハーピー」は2時間半ほどの航続時間で500キロの距離をカバーする。いったん発射されると、レーダーを探して飛行を続け、捕捉するとそのまま自動的に体当たりの自爆攻撃をし、施設を破壊する仕組みだ。中国、チリ、インド、韓国、トルコの5カ国が購入しているという。
青色のハイライト | 位置: 2,183
���本でも、2013年4月の公職選挙法改正でインターネット選挙が解禁。同年7月の参院選からインターネットを使った選挙運動が展開されている。 また、ソーシャルメディアの広がりに伴って、フェイスブックやツイッター、ユーチューブなどを使った選挙運動も行われ、ネットユーザーのデータ活用にも注目が集まっている。 一方で、日本の個人情報保護委員会は2018年 10 月 22 日付で、フェイスブックに対して行政指導を行った、と発表している[
メモ | 位置: 2,203
これはあり得る。以下コピペ。AIには偏見が潜み、私たちが気付かぬうちに差別をするかもしれない。しかも、AIがどう考えて判断を出したのかはわからない。 就職やローンの審査で、不当に落とされたら。知らぬ間に「テロリスト」や「犯罪者」にされたら。自動運転車や兵器が、人間には予想外の動きをし始めたら。
青色のハイライト | 位置: 2,250
2018年2月、ハーバード大学の心理学教授、スティーブン・ピンカー氏が、「イーロン・マスク氏がAIの脅威を真剣に考えているなら、自動運転車の製造をやめているだろう」と批判。マスク氏は「ピンカー氏でさえ、(自動車のような)機能的な狭い用途のAIと 汎用 AIの区別がついていないのか」と反論。マスク氏の規制論は、用途を限定しない、人間の知能に匹敵するような「汎用AI」が対象である、と主張して
メモAIには機能的狭い用途のAIと、汎用的なAIがあり、そのために、論争がややこしくなっているようだ。
青色のハイライト | 位置: 2,373
欧州連合(EU)が2018年5月 25 日、新たなプライバシー保護法制「一般データ保護規則(GDPR)」を施行した[ 16]。 膨大な個人データがネットを流通し、その多くをグーグルやフェイスブックといった米国企業が支配する中で、プライバシー保護法制を大幅に見直し、厳格化する。それがGDPR
青色のハイライト | 位置: 2,411
内閣府の「人間中心のAI社会原則検討会議」(議長・須藤修東大教授)は、2018年 12 月 27 日、AI活用の基本原則の草案を公表した[ 18]。 基本原則は、AIに関する国内の様々な指針を踏まえ、社会実装に対応するためのもの、と位置づけられて
オレンジ色のハイライト | 位置: 2,415
基本原則案が掲げるのは7
青色のハイライト | 位置: 2,415
人間中心の
青色のハイライト | 位置: 2,418
②教育・リテラシーの
青色のハイライト | 位置: 2,420
③プライバシー確保の
青色のハイライト | 位置: 2,423
④セキュリティ確保の
青色のハイライト | 位置: 2,426
⑤公正競争確保の
青色のハイライト | 位置: 2,428
⑥公平性、説明責任および透明性の
青色のハイライト | 位置: 2,431
⑦イノベーションの
青色のハイライト | 位置: 2,498
一方、AI開発の中心地、米国のトランプ政権は、EUとは対照��な姿勢を打ち出して
メモ米国においては、AI開発は最大限かつ自由に進めるとのこと。
青色のハイライト | 位置: 2,626
第3章で紹介した、AIによる殺傷兵器「自律型致死兵器(LAWS)」の規制をめぐる議論は、国連を舞台にして、数年にわたって続いている[
オレンジ色のハイライト | 位置: 2,798
「破壊兵器」のような凶暴さを持ちながら、万能には程遠いAI。そして、見えない差別も抱え込んだAIとどうつきあえばいいのか。 一つは、オニール氏のような監査によって、その公平性をしっかりと担保する取り組みを広げていくことだ。いずれ、標準化された指標の整備も必要だろ
黄色のハイライト | 位置: 2,987
https://www.youtube.com/watch?v=9CO6M2HsoIA
話題になった動画とのこと。
投稿元:
レビューを見る
ai=便利になる、もしくは人間の仕事が取られる、というような文脈でしか意識してなかったけれど、「悪」という視点を初めて持つことができた。
aiそのものが悪というよりは、その使い方。学習方法。
そもそも、aiは万能ではない。
悪意を持って使えば悪になる。
投稿元:
レビューを見る
NEC顔認証システム ネオフェイス 照合精度 99.2%
法務省 パナソニック 顔認証システム
AIで自動合成 ディープフェイクス
フェイスブック 選挙 ケンブリッジアナリィティカ
AIは万能には程遠いが、様々な点で、人間をはるかに超える能力を持つ
電卓としては桁外れの能力を持つが、公平については理解出来ない
マクルーハン メディアはメッセージである
我々はバックミラー越しに現代を見ている。われわれは未来にむかって、後ろ向きに行進している
AIが学習するデータは過去の社会を反映したものだ。そのバックミラーを通して、私達は未来を見ようとする。そこには、過去の社会のバイアスやゆがみの影も映し出される
AIのバックミラーが映し出す過去の社会の課題を見つめ、変えていこうとすることで、新たな未来を描くことは可能だ。
投稿元:
レビューを見る
ビジネス雑誌の書評を見て購入
もう少しバランス良く書いているのかと思ったら、かなり思い込みというか偏りを感じてしまった。
もしかしたら、昨今のAI礼賛風潮に警鐘を鳴らすため敢えて極端なアンチという立ち位置を使っているのかもとも思うが。
終章がなければ、残念という結果だったと思うが、「21世紀の電気」云々でちょっと持ち直してイーブン。
投稿元:
レビューを見る
2019年8月24日読了。旅行先で読了。リクナビによる内定辞退率の企業提供が非難を受ける中タイムリーな話題だった。既知の内容がほとんどだが、AI利用に傾斜していく世の流れは止めようがなく、それに対抗する手段は「みんなでルールを決めて、一定の規制をかけつつ賢く使いましょう」しかない、ということ、この「AIの悪用または意図せざる結果の発生」はすでに発生しているがそれに対する有効な対策は結局見いだされていないこと、「ディープフェイク」の動画などは、自分の中のストーリーや見たもののインパクトに引きずられてしまう我々人間の脆弱性を攻撃されているのだ、ということが非常に印象に残った…。科学の進歩が全てを解決する、などと楽観的にはいられないが、個人レベルでこれからの世界とどう付き合っていくか、は常に考えていかないといけないな。
投稿元:
レビューを見る
AIは恩恵とともに、次のような問題をもたらしている。
【監視される】
・人権団体が、アマゾンの画像認識AI「レコグニション」に、議員535人の顔写真を判定させる実験を行ったところ、28人を逮捕歴のある人物として誤認識した。
・FBIは、顔写真データベースを運用しているが、2016~17年にこれを調査した米会計検査院は、プライバシーと精度の確保が不十分だと指摘している。
【差別される】
・グーグルの広告配信システムのAIは、男女差別をする。男性の方が高収入・高ポストの求人広告が多く表示される。
・米国の警察が使う、AIで犯罪発生地域を予測するシステムは、警察官が集中的に見回る地域の犯罪発生率を高く予測する。そのため地域住民への差別や偏見を助長しかねない。
【殺される】
・人間を対象に、標的の特定から攻撃まで、すべてをAIが判断して行う「キラーロボット」の開発が進んでいる。
ーーーー✂ーーーー
人間はAIをコントロールできるのか。その懸念を表明したのが、理論物理学者のスティーブン・ホーキング氏。アルゴリズムによる高速取引が株式市場を混乱に陥れた例を挙げ、予見不可能な暴走の危険がAIに潜むと指摘した。
2018年、欧州委員会は「信頼できるAIの倫理ガイドライン」の草案を公開。
これは人権保護をベースに「信頼できるAI」を目指すもので、そのための要件として「自律性の管理(人間による監視)」「差別排除」など10項目を挙げる。
投稿元:
レビューを見る
欧州議会は2018年9月にLAWSの開発、製造、使用の国際的な禁止を止める決議を可決している。一方で米国、ロシア中国はAI兵器の開発に動いている。この現状は歴史上未曾有うで制御不能の軍拡競争を引き起こす可能性がある。また軍事面において人間による制御はほぼ完全に放棄し、誤動作の危険も放置されるという状況を作りだす。そんな倫理上の根本駅な懸念を生む。