放送大学全科目感想 001 AIシステムと人・社会との関係(’20)

シラバス参照 (ouj.ac.jp)

  • 情報コース・総合科目
  • ラジオ講座
  • 山口高平先生(慶應義塾大学教授)
  • 中谷多哉子先生(放送大学教授)
  • 難易度 ★★★☆☆
  • おすすめ度 ★★★★★

序盤では、AIの歴史とともに、当時のAIがどのような仕組みでできているかも詳細に解説してくれる。仕組みをトレースするのはとても面白い(情報コースの人なら)。

中盤以降はAIの活用例と今後の課題について。ここら辺は数年で大きく変わるから賞味期限が早そう。慶應理工学部や幼稚舎、都内公立小での実践例は楽しく、ああ都心部ってこういうとこ恵まれてるんだなーと感じた。

今の所AIは人力に多くを頼っており、自動で賢くなるようなイメージは間違っている。ディープラーニングは所詮相関関係しかわからないので「なんかわからんがこういう傾向がある」ということしか学習できない。意味や構造は人間が解析して定義してやらないとまだまだ難しい。

全体的に、先生がいろんなことを紹介したいんだけど、しきれない、という雰囲気が伝わってくる。

第1回

AIの誕生と1960年代の第一次AIブームについて。汎用的な問題解決を目指したが、当時のコンピュータは遅いこともあって、入力が極めて限られており、ごく定型的な問題しか解決できず、実用性がないことが欠点だった。原理は素晴らしいんだけどね。LispとかprologとかAIの流れで出てきた言語だったんですね。

探索について。これしっかり学んでおかないと、AIプログラミングするとき、無駄に処理時間がかかるプログラムができてしまいますね。

AIスピーカーの原理が1960年にできていたとは驚き。イライザと言うらしい。siriにイライザって何?と聞くと、歴史を教えてくれるらしい。応答パターンを山ほど用意しておく、というやりかた。確かに、Alexaも応答パターンがあるんだなーって感じの動作をするね。

ディープラーニング、ニューラルネットワークも実は古い技術であるという。1960年の時点で、ロボット科学にもかなり応用されている。すごいな

マシンパワー不足もあり、全然複雑な問題は解けず、第一次AIブームは終わる。

第2回

1970年代の話。ヒューリスティックスとは、必ず正しいのではないが、だいたい正しい知識のこと。これを目指したのがスタンフォード大学。

プログラム言語でおなじみのif-thenルールはこの頃(1970年代)に出来たらしい。

マイシンという医療診断システムについて詳細に解説する。テキストがないと意味が分からない。トレースしてみてはじめてその構造が分かるようだ。プログラムに慣れていればわかりやすそうだが、初学だと辛そう。

ルールベースは、AIっていうより、構造化されたハードコードの集合体という感じ。開発には5年もかかったらしい。頑張ったことはわかるが、正直、開発コストに見合わない。私がエンジニアならやりたくねーです。前向き推論、後ろ向き推論は、大事な概念になりそう。

推論の過程を全部表示してくれるってのはとてもいいアイデアですね。私も採用したい。

ルールモデルを検証するテレイシアスもすごいらしいのですがラジオだと全然わからない。テキスト読まないと。

第3回

1980年代第二次AIブームについて。マイシンの成功によりまたブームが訪れる。

エキスパートシステムであるためには、知識と推論エンジンを分離することが大事。現代のプログラム開発にも通じますね。全部プログラム言語内に知識を入れた開発もあったそうですが、今の開発手法から見ればナンセンス。DBなしの知識ベースには無理がありますね。

prolog楽しそう。やってみたいですね!!ただ難しくて、実際に先生が講義したら1年かかったそうです。LISPの方がメジャーらしい。

日本で開発された第五世代コンピュータ(FGCS)は意義はあったが産業貢献はなし。かわいそう。

この時代のAIって自動進化する仕組みは全然なくて、人間が全部手順やらデータやらをセットしてあげないと使い物にならない状態ですね。機械学習するための処理速度も容量も、データセットも全然足りないからでしょうけど。

第4回

第3次AIブームの前知識として、90年代に発展した手法である決定木、ベイジアンネットワーク、サポートベクターマシン、パーセプトロン、ニューラルネットワーク、ディープラーニングなど現代でも有名な手法についての基礎知識を学ぶ。ゲストの中谷先生が解説してくれる。

バックプロパゲーションで結合加重を変えていくとき、必ず誤差が減るように加重をコントロールしていく。そうすると訓練データによって過学習が起きたり、多層で学習すると影響が極端に大きくなったり、小さくなったりする。そうするとニューロンのネットワーク構造や層の数をどうするか、ということが非常に難しい。

例えばプラントの故障について。故障は滅多に起きないから、ほとんどのデータは正常である(アンバランスデータという)。学習はうまくいかない。

畳み込みネットワークは詳細に解説してくれているみたいだが、ラジオでは意味不明。フィルターが重要なんだな、だいたいのことを把握しているんだな、ということだけわかった。

リカレントニューラルネットワーク、フィードバックの仕組みはよくわかりましたが、処理速度が大変なことになりそう。

報酬、忘却もシミュレートするんですね。確かに必要ですよね。強化学習は魅力的だけど、現代でも時間がかかる。アームで物をつかむだけでも数十万回の試行が必要。大変ですね。

第5回

2012年、googleのディープラーニングによる顔認識が広く知れ渡り第3次AIブームが始まる。チェス・将棋・囲碁のAI制覇の様子などエキサイティングな話題になってきた。

現代のAIの特徴はデータ量・計算量で圧倒し「物理で殴る」システムが多いということ。将棋の藤井くんもAIと打ってAI特有の癖がわかってきているという。デイトレ勢も同じことを言っていたような気がする。2021年現在でも、格ゲーのCPU攻略法と一緒でまだまだ機械は機械だとわかるような状況なのだろう。

犯罪予測で犯罪が半減、スシローのネタのトレンド予測でマグロの廃棄量が75%削減と聞くとAIめっちゃ役にたってるやん、と感じる。

AIは人間の仕事を一定程度奪うかもしれないが、まだまだ弱い。ディープラーニングは、相関関係しか理解できないから、真の相関があるのかどうかは、人間が判定しないとわからない。統計学と同じ原理だ。世の中にゴミ統計があふれているのと同じく、ゴミAIも多数存在するに違いない。特徴抽出の前段階である視野の限定だってAIには現時点では無理。昔のAIと同じで、入力と出力の規格化、データの解釈が一義的に決まっていること、学習に使うデータがまともであること、これらの条件をクリアしないと全く使い物にならない状況であることが分かった。

当面、人間は安泰かな。シンギュラリティなんて夢物語だね。

第6回

AIの歴史の話は終わりで、今回から実践の話。まずはスポーツから。野球、剣道、サッカーの話だった。

データサイエンスは、データの入力を整えるのと、出力後のフィードバックに一番労力がかかる。計算自体はすぐ終わる。

剣道では姿勢の補正や、どういう練習をしたらいいかにデータサイエンスの手法を使い、、先生の息子さんの所属する剣道クラブで実際に参考にしているらしい。

データを初めて野球に取り入れたのがノムさん。だから野球はデータを受け入れる素地がある。データサイエンスによる分析結果もかなり使われているらしい。

ところがサッカーで同じことをやったら「俺たちのプレイじゃない」と言われたという。あほか。受け入れやすいデータの解釈の方法を考える必要があると先生は謙虚におっしゃってましたが私はそんなんいらんと思います。

受験勉強とか、語学の学習とか、データサイエンスやAIは絶対応用できると思うんですけど、学習用データの取得と整備をどうしたらいいか、がとても難しそうです。いずれAI受験とかになったりしてね。

第7回

自動運転について。2018年時点の情報であり、賞味期限が早そうな話題。

2004年に米国DARPA(国防高等研究計画局)がグランド・チャレンジというロボコンみたいな自動運転コンテストを開催したことにより、一気に開発が加速した。

はじめは砂漠を走るだけだったのが、2007年(最終回)には街中を走り、交通規則を遵守する、人を模した障害物をよけるなど急速に高度なものになった。

ここで高い技術を培った団体がスタートアップになり、googleやアップル等がこれらを買収して、自動運転業界を牽引していくことになった。

自動運転にはレベルがあり、0~5まである。0がアシストのみ、5が完全な自動運転となる。現在レベル3を実現しようと、全世界でしのぎを削っている状態だそう。アメリカ、中国が世界のトップで、日本はまだまだ。アップル社が世界一自動運転の特許が多いらしい。

中谷先生が慶應新川崎タウンキャンパス(そんなのあったんだ!)で自動運転の試乗の実況をするところが楽しいです。

2018年時点で死亡事故は3件。まあ少ないですよね。

第8回

サービスロボットについて。主に慶應の学祭でやったロボット飲食店の話。

まずは2000年代のロボットブームと終焉について。AIBO流行ってましたね。ロボットはインタラクション(相互作用)機能が必要だけど、当時の技術では不可能で、AIが発展しないと無理だった。ペッパー君も流行ったけど、2018年頃には廃れた。いまははま寿司で受付として使われているだけ。

2012年頃、中国ハルビンでロボットレストランがオープンした。しかし子供がロボットの前に立ったらぶつかってしまう、注文をミスる、食事をこぼす、など問題があり半年で閉店した。

はま寿司でペッパー君が活用されるための涙ぐましい工夫と努力についても語られる。そもそもペッパーは丈夫に作られていない。手を振ったり何度も往復動作をすると止まる。故障する。悲しい話だった。なのでできるだけ動作を少なくして、かつ、お客さんに喜ばれる動作をするようにチューンアップしているらしい。

後半は慶應理工学部のロボット喫茶店プロジェクトについて。接客はペッパー。運搬は別の人(ロボット。HSRとジャコ2)がやる。注文は音声認識で行う。他にもカメラなどで客の要望を把握する。ノートPC10台で情報処理をする。慶應はロボットに強く、現時点これができるハードは慶應だけが持っているらしい。

応用されている技術は知識ベース推論、音声対話、顔認識。入店検知をしたり、注文を正確に確認識したり、店内の環境の状況(環境地図)を作ってぶつからないようにしたりする。

実際に2018年にロボット喫茶店は慶應の大学祭で公開した。ペッパー君が受付する様子、HSRとぶつかりそうになるが回避する様子、がライブで放送された。子どもが注文してた。上手に受付するなー。注文をうけて食事を作るのは早い。顔認識を使ってクレープにチョコで似顔絵を描く機能も(3分かかる)。累計250人が来て、17万円の売り上げ、8万円の利益。すごいね。

アンケート結果では、ロボット喫茶にはエンターテイメント性が重要になっていることがわかった。いまのところは楽しい体験という位置づけですね。ロボットが飲み物をお客さんに渡すと感激するらしい。

↓は2010年の様子

慶應三田祭で「ロボット屋台」 ペッパーが料理を仕上げ! – bouncy / バウンシー (moov.ooo)

第9回

間接業務とAIの関係について。

間接業務は裏方の事務作業などのこと。大学の間接業務を例にする。経理などの定形事務処理を効率化する。エクセルマクロはAIか?なんともいえないな。

RPAの説明。狭義には複数のアプリケーションにまたがる操作のマクロ化とか。これはAI関係ない。広義のRPAは言語理解などの処理を含む。

具体的に何をするのか?派遣事務職員が売上データを抽出し、エクセルファイルに転写する、業者ごとに合計する、FAX送信する、処理を自動化するなど。VBAで自動化することもある。ってやっぱAIじゃなくない?ただの自動化やん。プログラムはAIなのか!?謎だ。あ、ここはRPAの説明だからAIじゃないんか。

業務ルールは変更される。ハードコードしてると手間がかかる。なのでエキスパートシステムのように、ルールとデータを分けるのが良い。そうするとルールの変更が軽微なら、ユーザー側でも反映できる。BRMSという標準化された言語が使える。ルール文の作り方はよくわからん。印刷教材みよ。

出張旅費申請を例にして業務をルール文にする。日当と宿泊料の計算はルールを書ける。申請文は大量に提出され審査に膨大な時間がかかるので大変だからこれを自動化したい。講義を聞く限りWEBのアンケートみたいな定形入力にさせて条件分岐していけばいいっぽい。データベースに属性とか金額とかを入れといて、路線選択アプリなどと連携すればよいですね。開発では大したことやらなくていい。簡単なシステムで時間が1/3になったそうです。

意思決定にも使える。たとえば保険の自動査定システム。定性(初診から時間が短い)を定量(初診から3ヶ月以内)に変えていくことで自動化が可能になる。これで査定時間が1/5になった。

これAIか?ただのプログラムじゃん。しかも簡単。機械学習を伴わなくても、AIって呼んでもいいのか。。こんなのに人類の雇用が左右されてるんかい。

第10回

社会インフラについて。

古い橋梁や道路の点検診断をどうするか。笹子トンネル事件では目視で検査していただけなので検査がザルだった。目視のサポートが必要。

ディープラーニングでひび割れを検知する。まだ実用段階でない。ヒビの撮影がたりない。畳み込み型で学習したら、80%検出できるようになった。ドローンロボットも活用すると効率化できそう。分担がうまくいけば効率が高まるね。

etcの点検。点検開始から数時間ですぐ復旧させなけねばならない。点検業務プロセスを分析しクラスやプロパティに分解し、知識ベースを開発。インタビューによって属人的なワークフローをゲットしたりした。分析過程が一番大変そうだ。ナレッジグラフ、オントロジー、専門用語が難しい。複合知識データベースを利用して、スマートグラス越しに点検手順を教えるシステムを開発したそうだ。画面の実際の説明もあったが印刷教材を見ないとよくわからない。作業者が質問すると質問リストが表示されたりするらしい。蜘蛛の巣が装置の隙間に入ることもあるらしいので、注意とした表示される。

なんという開発に手間のかかるシステムだ、とおもう。実際のシミュレーションが難しい装置なら有効かもしれないが、割にあうのかこれ?システムをつかっても32%は操作が難しかったという。実行可能な操作は50%増。多いと見るか少ないと見るか。そして抽象化したワークフローはあまり役に立たなかった。上司のみ手順の見直しにつながったと評価している。

高速道路の雪氷対策について。雪で閉鎖はしたくないが、せざるを得ない場合。どのタイミングで閉鎖するのか。判断基準は属人化の程度が高く、インタビューに時間がかかった。気温や湿度で判断するが、根拠は何か。詳しくは印刷教材をみよ、だそうだ。凍結防止剤散布などの業務もプロセス化する。そうして雪氷対策教育支援システムを作った。システムで学習した新人は経験3年程度と同等の知識が得られた。

教育システムがあれば3年かけて実践しなくていい。システム構築は大変だが、効果はかなりあるようだ。塾でも応用できるか?

第11回

学校とAI。

文科省のリーディングプロジェクトについて。スタディログってなんじゃろ。生徒に合わせた個別学習がトピックらしい。

慶應理工学部の教師ロボット連携事業について。小学校の温暖化の授業で、児童の興味関心が続くような授業を依頼された。家庭科をやろうとしてもお皿の認識などが難しいのであきらめ、社会にしたらしい。教師とロボットがかけあう。面白く教えないといけない。子供が騒がしい場合にどうするか。授業づくりも難しかった。インスタンス関係やクラス関係の定義の具体例は印刷教材参照。このオントロジーってDLなのか?人間定義なのか?話を聞いているとどうも人間定義のようだ。インタビューを元に考えてる。たいへん。驚きなどの身振りも定義してる。

実際のライブの様子。すげー受けてる。??する?→動画を再生するよ!とか、ヒントだよ!とか面白いこと言ってる。かなり楽しく学べたみたいだけど、音声認識が難しい、時間かかりすぎ(これが一番致命的では)という課題があった。

慶應幼稚舎でてこの原理の授業の実験をした。ロボットアーム使ってる。児童の回答状況がわかるようにして、サポートを容易にするようにできるようになった。ただアームがなかなかものを掴めないのを、児童が応援してたのが微笑ましい。スパイダーマンの顔になって静かにせよと言ってウケたりしてた。もっとロボットと話したい児童もいっぱい。ロボットはエンタメ要素が強いですね。

教師がロボット授業を作れるようなツールの開発について。これは。。RPGツクールじゃないか!!ツールのセミナーもやってるそうだ。小型ロボットとpcが40万ほどするので価格の問題がある。高いツクールだなあ。

第12回

知的パートナーAIについて。

まずはナレッジナビゲーター。講義資料の準備など。論文の検索やスケジューリング管理とか。秘書のような機能を求める。30年前の提案だけどまだ全然実現せず。

対話が難しい。ディープラーニングによる対話は難しい(!)。やはり相関関係しか判定できないから。それっぽい返答はできるが因果関係は現時点ではむり。上位下位関係や意味関係、プロパティをオントロジーを使って定義しないといけない。

オントロジーは概念感の上下関係と意味関係を定義したもので、そのデータベースをナレッジグラフという。自動構築は難しい。手動しかない。なので開発が難しい。自動構築の仕組みを作る試みはある。例えばWikipediaから作るアプローチがある。時代小説、芥川、夏目漱石などの構造を作るがWikipediaには間違いもあるので、デバッグは大変。ナレッジグラフとして2000万のデータを構築して小学校で実験した。結構答えられてる。クイズには十分使えそう。宮台先生との対話も面白い。神様は存在しますか→関連してない=プロパティなしなので、哲学者にとっては面白かったみたい。人が勝手に深読みしておもしろがってるだけでは。今後の自然言語処理の発展に期待。

温暖化についての小学校での討論にオントロジーで強化したロボットを投入した。ある程度キーワードが照合した時、節電の説明とか火力発電で二酸化炭素が出るよと言ったりとか。ライブではロボットが声かけをしてくれてみんな興奮してた。やっぱエンタメ要員やね。杉並区立浜田山小学校だって。東京の小学校は恵まれてるなー。小5でエネルギー問題をかなりハイレベルなとこまで議論できてる。先生にも好評でした。議論の材料になったり、新しい可能性を開けたりする。子供たちの反応は、ロボットにできることとできないことがある、ということを学べたことが大きいそう。

討論にロボットを使う実験。プロジェクトディベーターと討論者で戦ったらディベーターが勝ったそう。範囲を絞って知識を構造化できれば説得的なセットは作れるんだね。といっても、まだまだ人手に頼ることになりそう。

第13回

ここまでのまとめとよくある質問への回答。復習事項が多くあまり新しいことがない。

ディープラーニングで囲碁が解けるならビジネス問題も解けるんじゃね?というよくある疑問には、残念でした、無理ですという回答になる。やはり相関関係しかわからないんで、構造化とか意味関連性に非常に弱い。AIはまだまだ人力勝負です。

機械学習と医者の診断について。医者は自分の経験にとても自信があるのでデータマイニングの結果は信用しないようだ。藤井くんを見習ってほしい。データの後処理ってかデータ利用者のリテラシーの問題じゃない?

自動運転でクルマは売れなくなるのか。売れなくなるというより、既存の構造が変わって大手メーカーだけでなく新興企業にチャンスが巡ってくるようになりそうだ。

資本主義は変わるか?という質問には、先生はまだAIのレベルは低い、AIとどう連携するかが問題となると言っています。

シンギュラリティは世界全体に起きるか。今起こっているのは、極めて限定された条件下でしか起きてない。先生はすぐに様々な業務が代替されると考えるのは時期尚早という立場。分野横断的な研究は重要になるだろう。とのこと。

AIの価値は。先生は職業をプロセスに分解して、意味理解は人間がやって、単純計算はAIがやるなど、役割分担が大事になるだろうと予想している。

コンピュータはまだ馬力しか出せない道具にすぎない。AI万能主義の夢物語をぶち上げる人の言うことは信用しないほうがいいね。

第14回

AIシステムと今後の社会について。いままでの講義のまとめが多い。

全体的に、AIが人間にとって代わるというのは間違いで、AIをどのように人間が活用していくかを考えよということを言っている。人間が得意なこととAIが得意なことは違う。AIって名前で議論しているけど結局、昔からロボットやらコンピュータやらについて言われてたことと一緒だよね。DLするなら一番大事なのはデータの質ということも、これまでの講義と一緒。

いいAIと悪いAIの話。ロボット三原則と同じように、倫理的な面から、AIにも開発上のガイドラインが必要ということ。悪いAIがネットワーク上で検出されたら、自動的に取り締まるAIポリスも考えられるけど、それも学習用データの質がなかなか、難しそうな話。中国の金盾って絶対AI使ってると思うんですけど、アルゴリズムが知りたいですね。軍事AIも面白そうですが、仮想の戦争するならデータとかルールとかのレギュレーションが大変そうですね。現実にはレギュレーションもないわけだし、手続きを統一するのは無理。まだまだ難しいだろう。

2018年、政府が提言したAI8原則?では、AIを人間中心にせよ、教育を充実せよ、などの原則があるそう。できるから作るのではだめ。人間中心というのは、漠然としてよくわからない(第15回でやるらしい)。悪意をもったAI=悪いプログラムなんで結局昔と何も変わらん。。データサイエンスは大学生の必須科目になりそう(大したことやらないと思うけど)。

AIの開発のためには知識の構造化、定義の明確化、インターフェースの充実、それから楽しいことが重要。これもいままでのソフトウェア開発と同じに見える。

第15回

AI国家戦略について。AIを経済発展につなげる。どうやって?

AI推進すれば10年程度で効果が出てくるらしい。マジで?IT革命みたいなもん?楽観的にすぎるとおもうけど。

主要国のAI戦略。アメリカではAIに優先的にお金出すんだって。でも予算は不明。GAFAが主導だから?

中国は国指導。特に自動運転に力入れてる。深圳がシリコンバレー化してるらしい。中国は医師が少なく、AI診療所が期待されている。写真とって薬ももらう。コンビニみたいですね。ただ中国ははまだ基礎研究のレベル低いみたい。2017年現在の話だけど。一兆円以上の金が投入されるらしく今後一気に発展しそう。中国の有名企業はBATHというらしい。バイドゥ、アリババ、テンセント、ファーウェイかな。半国有企業みたいなもんなんで強いっすね。

ヨーロッパ。EUでは12兆円投入して開発するらしい。イギリスでは医療、早期がん発見。ドイツではラーニングシステム(教育?)など幅広く。日本と連携して人間中心の開発をするらしいが抽象的でよくわからん。

日本。現実と仮想空間を統合する(ARみたいなもん?)ソサエティ5.0を推進。5.0みたいなの好きだね。

人間中心のAI原則について。AIのリテラシーを高める。悪用したり過度に依存しない。技術者は人文科学の素養も高める。プロファイリングの保護について。2019年8月リクナビが学生の内定辞退率を販売する事件があった。これはダメ。公正の原則。大企業にデータが独占される。これはどうしようもなさそう。アカウンタビリティ、透明性の原則。2018年10月、アマゾンが男性を優先した事件。機械学習に使った履歴書が男性のものが多かったから。データの質の問題。

日本では25万人〜50万人AI技術者を育成するらしいよ。少々勉強するくらいじゃダメだね。

AI兵器。自動で人を殺傷する兵器は禁止しましょう、という動きがある。

おわり。先生方ありがとうございました。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です