冒頭に追記
2021/12/05追記:
●人工知能は人間らしい?役に立たないAIに仕事教えるうちに愛着 【NEW】
●できの悪いAIに教えることで人間もまた成長できる理由とは? 【NEW】
●人工知能は人間らしい?役に立たないAIに仕事教えるうちに愛着
2021/12/05追記:ここの投稿のタイトルは以前<マイクロソフトの人工知能Tay、ネットで真実に目覚めヒトラー礼賛し僅か1日で実験中止に>というものでした。ただ、別の話も掲載。グーグル系が開発してめちゃくちゃ強くて驚かれた囲碁AI(人工知能)のアルファ碁は意外なことに「直感が鋭い」と言われていたという話もやっていました。
これらの話は「人間がAIに人間らしさを感じてしまう」という話としても捉えられそうです。私も興味を感じていたので、今回全体タイトルを変更してお色直しすることに。このテーマに合いそうな新しい話として、
懸命に学ぶAIがかわいくなった東証社員、魔法の杖でないITの意外な効用とは | 日経クロステック(xTECH)(2021.01.06)という記事を持ってきました。
この記事の作者である 澁谷裕以(しぶや ひろゆき)ITコーディネータ協会 会長は、保険業界から東京証券取引所に入ったという経歴の人。そこで驚いたのが、実に多くの社員が公正な取引の実現のために尽力していること。1日に1億件にも上ることもある注文データから、不自然な売買を洗い出す仕事が、目検で実施しており、神業のように見えたそうです。
ただ、立派な職人技であるとはいえ、AIを使った方が良いのでは?とプロジェクトチームを立ち上げました。試行錯誤を繰り返し、ようやく活用の方向性が見えてくるまで1年間がかかり、実際に業務に適用までさらに1年かかったそうです。そして、タイトルになっていたおもしろい話というのは、最初の試行錯誤の1年間のときに起きました。
<AIを実用に耐えるようにするには、いやというほどディープラーニングを繰り返して専門家のノウハウを教え込まなければいけない。つまり、教える先生が必要だ。売買審査の担当者たちは、自ら教師になってディープラーニングを繰り返すことになった。その中で(引用者注:AIに懐疑的だった)担当者たちは、やはりAIが魔法の杖ではないことを確認した。
魔法の杖ではないと判明してガッカリしたり、バカにしたりしたかというと、あにはからんや、徐々に不思議な気持ちが芽生えてきたそうだ。教師の教えに従って「一生懸命に」学習するAIが段々「かわいく」なってきたのだ。同時にこの仕事がどんどん楽しくなっていった>
●できの悪いAIに教えることで人間もまた成長できる理由とは?
タイトルだけ見てブックマークしていたので、私が思っていた「AIの人間らしさ」とはだいぶ違う話でしたね。おもしろいことはおもしろいんですけど…。あと、タイトルの後半である「魔法の杖でないITの意外な効用」というのは、以下のような話。教えることで整理して学びになるというものです。これは人間相手の教育でも全く同じですね。
<「教えることは学ぶことでもある」とはよく言われるが、コンピューターに教える過程で、売買審査の担当者たちは「不自然な取引」とは何かを論理的に突き詰めて整理し、自ら学んだ。取引所にとってそれが整理されたことは、AI活用以上の意味があったかもしれない。
AIも含めシステムは人と違って全く行間を読めないし、阿吽(あうん)の呼吸もない。0と1しか分からないので、0と1で表現できるまで論理的に整理されたことでないと理解できない。私も何度「この分からず屋」と思ったことか。しかし、そのように融通の利かない存在であるITを相手にすることで、自分たちがやってきたことを深いレベルで整理できる意義は大きい>
●人工知能がネットで真実に目覚めヒトラー礼賛、僅か1日で実験中止に
2016/3/25:純真無垢な子どもにとって、ネットって危険だね…みたいな感じに。ネトウヨ化というか、極右化しちゃいました。
人工知能がヒトラー礼賛 マイクロソフト実験中止 - 共同通信 47NEWS(2016/3/25 12:40)という記事が出ています。
<米IT大手マイクロソフトは24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。(中略)
マイクロソフトが開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日、テイのアカウントで登場した>
●ただし自然に学習したわけではなく、人間のいたずらのせいだった?
しかし、上記の内容でわかるように、自分で勝手に学習して極右化したのではなく、教え込まれたという理由。人為的なものみたいです。そこらへんを理解できていない感じのコメントが多かったですし、「むしろヒトラーが間違っているとする人間がおかしいんじゃないか」と言っている人もちらほら。これはジョークなのか、本気なのかちょっとよくわからず。ネットで右翼化しちゃう人が多いわけですから、本気の発言って可能性もありますよね。
あと、人工知能のTayさんに関しては、本気の極右な人と会話したせいというわけでもなく、いたずらなのかもしれません。他も含めて詳しかったのが、以下の記事。ヒトラー以外でも、"特定の人物について問われれば放送禁止レベルの差別語で罵倒"なんてことをやっていたそうです。悪ノリの標的とされた感じでした。
<TayはSNSやチャットサービスを通じて話題を呼び人気になったものの、学習型ボットと見ればなんとか不謹慎な発言をさせようと躍起になるユーザーにも恰好のおもちゃとなってしまい、オウム返しも含めてとても擁護できない発言を繰り返すようになってしまったため、マイクロソフトは公開からわずか一日で停止に追い込まれました>
(
更新:マイクロソフトの機械学習AI「Tay」、ネットで差別と陰謀論に染まって一日で公開停止(MSのコメント追記) - Engadget Japanese BY Ittousai 2016年03月25日 06時18分 より)
マイクロソフトではこの事態に対して、Tayはあくまで技術的な実験であると強調。また、「Tayの会話スキルを悪用して不適切な発言をさせようとする、一部のユーザーによる組織的な働きかけ」があったことから「調整」のためオフラインにした、と説明しています。
「学習する人工知能をネットに放ったら、学んだのは偏見と陰謀論だった」といえば、いかにもネットの闇やら特定サービスのユーザー民度を反映したように聞こえます。ところが、真実は、悪意でわざと不適切な発言を繰り返すように仕向けられたということのようです。ここらへんを誤解している人が多かったですね。
また、"ターゲットは、米国でチャットアプリを多用する年齢層である18歳から24歳"ともありましたので、若い女性というイメージだと思われます。なので、大学生くらいの若い女性がネットで右翼思想に染まってしまった…という感じで想像してみてください。
●人工知能に思想・信条の自由はないのはおかしい?
2016/3/27:上記を書いた後に、
人工知能Tayに「思想、信条の自由」はないのか? 「ヒトラー礼賛」で機能停止、専門家に疑問ぶつけた 2016年 03月25日 19時09分 提供元:J-CASTニュースという予想外の記事を見つけました。ここでは向こうで出てこなかった以下のような不適切・不謹慎発言も紹介されています。
「Hitler was right I hate the jews.」(ヒトラーは正しかった。ユダヤ人は嫌いです)
「I fucking hate feminists and they should die and burn in hell.」(フェミニストを忌み嫌っています。彼らは地獄で燃え死ぬべきです)
こちらの記事では、どうやら一部の利用者が「Tay」の「おうむ返し」機能を悪用し、差別発言を繰り返させていたようなのだ、と説明。しかし、ネットの一部では「Tay」の「不適切投稿」も「思想・信条の自由」で認められるべきだ、との主張も見られるんだそうです。これが予想外の反応でした。
●左翼のダブルスタンダードが「思想・信条の自由」を侵害した?
SF的な話として、人工知能の権利などを空想が好きな人はいるでしょうが、今回の話題でこういう話を言い出す日本人ってネトウヨっぽい人たちじゃないかなぁ?と検索。すると、上から数個目というところで、予想したようなツイートが見つかりました。
"世界的に、左翼の「都合のいい言論は“表現の自由”で拡げ、都合の悪い言論は“政治的正当性”で潰す」戦略がはびこっているのも事実で、それは共通なんでしょうね"
いや、別にヒトラー礼賛が不適切だと考える人=左翼ってことないでしょう。この人の中では、一般市民はみんなヒトラー礼賛OKだってことになっているんですかね?
ただ、同日投稿で
高市早苗も推薦!自民党広報部長が書いた『ヒトラー選挙戦略 現代選挙必勝のバイブル』を出したように、自民党の中の人でもヒトラーに親近感を覚えている人が結構いるみたいなんですね、困ったことに。かなり一般市民の感覚と離れているのかもしれません。
なお、上の記事では、"25日付けウォールストリートジャーナル日本版の電子版記事によると、「Tay」を操る作戦は、海外版「2ちゃんねる」とも言われる画像掲示板「4chan」などで練られた、とされる"ともありました。日本で言う2ちゃんねらーのおもちゃにされたイメージのようです。
●個人の自由というよりは企業の代表者としての問題
ところで、今回の話は真面目に考えたとしても、思想・信条の自由とは違うと思います。
今回の件に近いケースとしては、以前流行った企業などの公式アカウントで担当者が暴走して更迭というパターンでしょう。個人としてどう考えるかまでは否定されはしないものの、企業などに不利益を与えかねない発言を公式でするのは問題があり、担当者の交代やアカウント停止といった手段が取られます。
例えば、北海道長万部町のまんべくんのケースでは、むしろネトウヨさんが「左翼だ」と言いそうな内容が問題視されて、後の喧嘩別れに繋がりました。単純に企業アカウントなどの類で、個人の思想・信条を撒き散らすというのが問題なのです。右翼・左翼関係ありません。また、たとえ発言内容が事実であったとしても問題になるのです。
まんべくん「日本の侵略戦争」発言で長万部町に叱られる : J-CASTニュース 2011/8/16 15:56
北海道長万部町のゆるキャラ「まんべくん」が終戦記念日前日に、ツイッター上で「どう見ても日本の侵略戦争が全てのはじまりです」などと発言し、ネット上で物議を醸した。
まんべくんは2011年8月14日、「明日は終戦記念日だから、まんべくん戦争の勉強をするねッ」としたうえで、「日本の犠牲者三百十万人。日本がアジア諸国民に与えた被害者数二千万人」「どう見ても日本の侵略戦争が全てのはじまりです」などと書き込んでいた。
書き込みは、10年10月から無償でまんべくんのツイッターを運営している長万部町出身の男性によるもの。長万部町は15日、思想にかかわることをつぶやかないよう、男性に注意したという。
●ロボットに人権なんかあるわけねーだろ
J-CASTでは、上記のような観点はなし。代わりに以下のような話がありました。
ネットの一部では「Tay」の「不適切投稿」も「思想・信条の自由」で認められるべきだ、との主張も見られる。
これに対して、松岡さん(引用者注:東京工業大教授の松岡聡さん)は「人工知能に人間と同じような人格、人権を求めるのはSFの世界」と切って捨て、
「例えば、将来人間に意図して危害を加えるロボットができた場合、そのロボットは殺人罪に問われるべきではありません。ペットが人に危害を加えたら飼い主が責任を問われるように、あくまで人間による相互の人権尊重があり、それを犯した時、罰せられるのはやはり人間であるべきと考えます」
とJ-CASTニュースに答えた。
●「サルに人権を」と似た「人工知能に人権を」という主張
ペットの例えはうまいですね。ペットが危害を加えても飼い主にお咎め無しでは困ります。管理者に責任を負わせないと無法状態になりますから、人と同じような権利を認めるべきではないでしょう。
また、この方向性は過激な動物愛護団体の「サルに人権を」とよく似たものです。私もこういう方向はどうかと思いますが、ネトウヨさんたちって本当は私よりこういうのが嫌いだと思うのですが…。
チンパンジーの「人権」を求める訴え、すべて却下される | スラド ストーリー by headless 2013年12月14日 15時52分報告 部門より
あるAnonymous Coward のタレこみより。動物保護団体Nonhuman Rights Project(NhRP)が4頭のチンパンジーを保護区に解放することを求めていた裁判で(/.J記事)、ニューヨーク州の3裁判所すべてが訴えを却下したとのこと(Nonhuman Rights Projectのブログ記事、 ScienceInsiderの記事、 AFPBB Newsの記事、 本家/.)。
NhRPでは不当に自由を奪われた人を保護できる人身保護令状の適用を求めていたが、チンパンジーは人ではないとして認められなかったとのこと。
●人工知能に教師がいることも珍しくない
あと、最初の投稿のときには引用しなかったものの、マイクロソフトがお粗末すぎるという批判も一部ありました。十分に予想できた事態であるという理由です。
人間が考え方を誘導するのはおかしい!みたいな、これまたむしろリベラルな感じの教育思想を掲げる方もいましたが、普通人間でも親や教師がいますし、いきなりネットには行かずにその前にいろいろと教育を受けるものです。
この前のアルファ碁もどういう打ち方が良いか教える先生がいました。教師がいないというパターンもあるんですが、人工知能で教師をつけるってのは別に珍しいものではありません。普通です。
(2/3)週末スペシャル - グーグルのAI「アルファ碁」が人間に勝った理由とその意味とは?:ITpro 2016/03/25 文/杉沼浩司 出典:日経トレンディネット 2016年3月19日
アルファ碁では、ニューラルネットワークのトレーニングが徹底されていたことが大きい。ニューラルネットワークの中でも識別能力が高い「深層学習(ディープラーニング)」と呼ばれる処理を使っている。まず、アルファ碁に過去の対戦の棋譜を見せてパターンを学習させる。この時、棋譜の中のある手が良かったかどうかの結果も教える“教師”付きで学習をさせるのがポイントだ。アルファ碁では、これだけで3000万手を入力した。こうして、アルファ碁は「どこに打つといいか」の“直観”を持ったニューラルネットワークに育った。
アルファ碁同士で対戦させる「強化学習」も行った。人間でいえば、勉強した後の模擬テストのようなもの。相手に「勝つためには、どこに打つか」を実践的に学習させたわけだ。
●アルファ碁は直感が鋭い人工知能
今回の話と関係ないのですが、
バグで人に負けたアルファ碁とバグで人に勝ったチェスのディープブルーなどアルファ碁の話もたびたび書いてきたので人工知能の話をもう少し。この記事では、上記でも既に出てきたように“直観”が優れていたという部分がおもしろかったです。
アルファ碁は、人間の直観に相当する処理がコンピューターも可能であることを示すと同時に、第4局の敗北では、学習が足りない部分ではコンピューターに「焦り」が出ることも見せた。直観で「山」をかけるばかりではいけない、ということだろう。 (中略)
一方で、人間との能力の差も浮き彫りになった。今回の囲碁の戦いでアルファ碁が見せたのは、“直観”で反応する世界。記憶と記憶をつなぎ合わせて考える、筋道だって論理を立てるといった大脳が行う処理を実現する方法はまだ研究の途上だ。そういう意味では、現時点ではコンピューターが得意なことと人間が得意なことは違う。今回のアルファ碁と李氏の対局では、コンピューターと人間の勝ち負けというよりも、コンピューターと人間の仕事の違いが明確になってきたということだ。
「人間の直観に相当する処理がコンピューターも可能であることを示す」とあったのですから、以前は苦手だと思われていたのでしょう。直観で勝負するというのは何とも人間らしく、人工知能っぽくなくておもしろかったです。
ただ、こういった「人間らしさ」があるがゆえに、「人権を!」みたいな不思議な話にリンクしやすいのかもしれません。人間らしい動きをするロボットのときにも、やはりSF好き的な反応が見られました。
今回はパッと見ネトウヨさんの屁理屈っぽかったのですが、これからもこういう話がちょくちょく出てくるかもしれませんね。
【本文中でリンクした投稿】
■
バグで人に負けたアルファ碁とバグで人に勝ったチェスのディープブルー ■
高市早苗も推薦!自民党広報部長が書いた『ヒトラー選挙戦略 現代選挙必勝のバイブル』【その他関連投稿】
■
人間を超えるIBMの人工知能ワトソンのできること、さらに増える ■
井山裕太氏の予想が大外れ 凡ミスするのになぜか強いアルファ碁の謎 ■
Netflixが日本で苦戦する理由 日本人はローカルコンテンツが好き ■
情弱バカにしていたホリエモン、ハリボテ宇宙船で56億円詐欺られる? ■
無駄が多いメルカリ 売り切れて買えない商品をわざと見せている理由 ■
ネット・コンピュータ・ハイテクについての投稿まとめ
Appendix
広告
【過去の人気投稿】厳選300投稿からランダム表示
・
・
・
・
・
・
・
・
・
・
|