kobblog@livedoor

酒とライブな日々(?)って感じの日記でしょうか。

Books

30年後を考える ~ 2035年の世界 ~ 未来を創造し行動を起こす . LeanとDevOpsの科学 は ソフトウェア開発プロジェクトリーダとしてデータ分析者として、ふたつぶ美味しい . 「会社を変える分析の力」を読み、改めて2019年の働き方を考える . [books] データでいのちを描く / データビジュアライゼーションとAI . お金以外の価値の流通手段は? / 教養としてのテクノロジー を読みました . [books] 統計学が最強の学問である | 西内啓 はビジネスでデータを扱うのにとてもよい入門書でした . シンギュラリティ大学関連のイベントに参加 / Exponential Organizations . 伊賀泰代 生産性. 組織としての生産性がどうしても低くなりがちな、日本の大企業のマネジメントが読むべき一冊 . HRTはとてもシンプルなチームづくりのための原則 . 深層学習(Deep Learning)/岡谷貴之 で深層学習の語彙を手に入れよう .

30年後を考える ~ 2035年の世界 ~ 未来を創造し行動を起こす

2035年の世界
高城 剛
PHP研究所
2014-10-31

会社で話題にでたため、図書館で借りて読んでみました。見開き1ページで1トピックと、とても読みやすい構成で、100のトピックの、30年後の世界を予測・妄想します。2014年に発行されたものですが、2019年時点ですでに現実となっていることもあれば、まだまだ先なのかもということもあります。そもそも予測の範囲のばらつきはあるのだとは思いますが、インターネットやデジタルなことは比較的すでに大分実現されている感じがしたのと、恐ろしいことにネガティブな予測は大分近いことがすでに起きていると感じました。

The 16th President of the United States, President Abraham Lincoln, is often credited with saying, “The best way to predict the future is to create it.”

という言葉がありますが、意識的に、より良い(と思える)未来に向かって行動を起こしていかないと、どんどん暗い未来になってしまうのだなと感じました。もちろん、「暗い未来」を作るのも人間なのですが。

LeanとDevOpsの科学 は ソフトウェア開発プロジェクトリーダとしてデータ分析者として、ふたつぶ美味しい

自分の現在の仕事に関わりそうな興味深いタイトルと、アマゾンでの評判に惹かれて読んでみました。


生産性の高い組織がいったいどんな特性があるのか、特にLeanとかDevOpsという視点が適用できるソフトウェア開発組織において研究した論文を解説するような書籍でした。前半は、研究から得られる、ソフトウェア開発組織における重要な指標や特性についてまとめられており、後半は、それらを導いた「科学的」手法、アプローチ、データ分析方法について解説されています。

私はソフトウェア開発組織におり、主にデータ分析プロジェクトを担当しているので、前半・後半それぞれ違った見方で楽しむことができました。前半の大きな結論は「組織の生産性改善促進効果の高いケイパビリティ」をまとめたものになります。それらはリーダーシップや、リーンな製品開発、さらにテストやデプロイの自動化、、といったなじみのあるキーワードが構造化されており、最終的には、組織全体のパフォーマンスにつながっていました。がここの部分は、だよね、といった感じが多く、(実際やるとなると大変だとは思いますが、頭ではわかっている)だよね、という感じでした。

一方、後半の統計学的な分類や検定といった手法、計量心理学のアプローチ、具体的なデータ収集の方法などは、学びが多かったです。たとえば、パフォーマンス指標自体をある単一の指標ではなく、関連する指標・データからクラスタリングにより作成して用いるなど、読みながら次に試したいアプローチも多々ありました。

また、ソフトウェア開発現場の分析になるので、比較的、実際に計測して定量化できるメトリクスが多そう(例えばコードの行数やコミットやデプロイメントの回数など)なものですが、実際は「アンケート」によるデータ収集をしていたり、またソフトウェア開発組織の中でも、あえて「DevOpsを活用したソフトウェア開発を行っている母集団」に限定(あえて調査対象をむやみに広げない)といったことも、「科学的に」アプローチするための「コツ」ともいえそうです。もちろん、元データを操作して思い通りの結果を導くのは間違えですが、一方で、どんなデータでも使えば使うほど、良い結果が導けるというのも、観測できているデータ自体に限界がある時点で、間違う可能性を秘めているわけで、そのあたりの絶妙なバランスを感じました。

前半の組織ケイパビリティについては非常に整理されており、すぐにでも参考にできる内容ですし、後半の部分の気付きは、なかなかばっしと明文化するのは難しいのですが、ゆえに本書を読んでよかったと思います。

「会社を変える分析の力」を読み、改めて2019年の働き方を考える



「データ分析をビジネスに活用する」ために、本質的に重要なことが多く記載(明文化)されている、すばらしい良書でした。本書が執筆されたのは2013年で、いわゆる最近の機械学習についての言及はほぼないため、逆に様々な手法に惑わされず、データ分析をビジネスに活用するために必要な力という視点で焦点が絞られていると感じました。

内容の多くが、私が3年ほどデータ分析業務に携わっているなかで体で感じたことであり、仕事を始めた頃に読んでいたら学習曲線は大きく変わっていたかもと思いつつ、逆に改めてここに書かれていることを反芻する必要があるとも感じました。

重要と思ったポイントをいくつか引用させていただきます。

  • 「分析の価値」=「意思決定への寄与度」x「意思決定の重要性」
  • 分析モデルは、所詮、現実を単純化かつ近似化したものに過ぎない、されど、現実のある特定の特徴について定量的な知見を与えてくれる。この「所詮」と「されど」の感覚をもって分析モデルと常に対峙する
  • 「連続性の世界観」と「不連続性の世界観」。現実を支配しているのは、「不連続の世界感」。データ分析で解明できているのは、理想論的な「連続性の世界観」での解明に過ぎません。.. この知見が、現実の「不連続性の世界」においてどれだけの意味を持つかをよく吟味しなければなりません。
  • データ分析とKKDはどちらが優れているかといった関係ではなく、相補的な関係にあります。分析者は、データ分析について謙虚な気持ちを持つとともに、KKDに対する敬意も持たなければなりません。
  • ビジネス課題→1.見つける(意思決定問題化する)→分析問題→2.解く(分析問題化する)→数値解→3.使わせる→ビジネスの意思決定 これら三つの力を総称して「データ分析でビジネスを変える力」

ビジネスに貢献できるデータ分析力は、改めてとても大きな守備範囲が必要と感じましたし、それが売り物にできる「分析プロフェッショナル」になるためには、仕事を与えられだけでなく、自ら取り組むことが大切と改めて感じました。

お正月休みの、すばらしいリハビリ読書になりました。

[books] データでいのちを描く / データビジュアライゼーションとAI

ちょっと気になっていたところ、ちょうど図書館で見かけたために、借りて読んでみました。

興味を持った理由は、NHKの番組制作者が、データビジュアライゼーションについて語っていたという点でした。

さらに、読み始めてから気づいたのですが、

  • NHKスペシャルなどで自分が実際に見た番組の話題も多く
  • Twitterや職場の身近な仲間でも話題になった「AIひろし」の話あり
  • さらに 2017年の冬に参加した Data Visualization meetup 2017 で登壇された方の一人が、NHKの斉藤 一成さんで、ちょうど関連する話を聞いていた

と、いろいろと偶然のつながりが重なり、とても楽しく読むことができました。

全体の構成はこんな感じでした

  • データビジュアリゼーション、視覚情報のつよさ、鳥の目、虫の目、魚の眼
  • データとAI, 人の関係
  • 伝えるということ ジャーナリストとして、だからこそ10秒で伝わる言葉も大切にしている
  • 最後に、社会課題の解決の糸口としての、データについて。ビジョン。データでいのちを描く、救えるいのちがある

なかでも、気になった点をピックアップすると、

  • 人間が外部から情報を得る手段としての「視覚」の割合は8-9割と大きい。=データビジュアライゼーション・データジャーナリズムの価値は高い
  • データサイエンティストが、視点を豊かにするためには、外へ一歩出ることをお勧めします。データを生み出した現実を知ることで、データを血の通ったものにできるはず
  • データ分析におけるツールは「望遠鏡」や「顕微鏡」といった道具と同じ
  • 数字を見る際、頭の中にモノサシを持つのが大事。納豆パックの粒の数、東京ドームの広さ、収容人数、建物1階分の高さ。データをリアリティをもって感じるために、身体感覚に基づく単位があると役立つ
  • データを1000倍処理するために必要になったのが「道具としてのAI」
  • AIの3つの役割。1.家族友人 2.道具 3.ブレイン(知的参謀)としての社会解決型AI
  • 人に何かを伝えるという行為の目的は、相手を動かすこと

...

そして、よく見ると表紙のイラストが、データ分析の本質的なところを描いていると思います。ここもぜひ注目ください。(帯どかしてほしい〜)

datainochi



お金以外の価値の流通手段は? / 教養としてのテクノロジー を読みました

伊藤 穰一さん 著の 教養としてのテクノロジー―AI、仮想通貨、ブロックチェーン を読みました。サブタイトルに具体的なテクノロジーが併記されていますが、本書の主題はテクノロジーの解説ではありません。テクノロジーの進化の真っ只中にいる joi さんが、おそらく肌感覚で感じている、このままのテクノロジーと資本主義(=Scale is Everything)だけでは、明るい未来はないのではないか、という危機感について書かれていると思います。

ちょうど時期を同じくして、国谷裕子さんの SDGsを知ろう 、という講演を聞きましたが、ここで伝えられた「このままでは私達の住む地球環境が壊れてしまうという強い危機感」にもタイムリーにつながる内容でした。

本書では、テクノロジーが「経済」「社会」「日本」にどんな変化をもたらしているか、そしてもたらそうとしているか、どんな未来にするべきだろうか、が論じられていますが、特に私の中でも気になったテーマは「経済」と「社会」に関係する、「働く」ことと、その価値に関しての部分でした。

現在、貨幣経済ができ、価値が「お金」に換算され、流通されるようになった。しかもその「お金」同士は為替という仕組みを使って世界中で交換可能になった。一方、「お金」に換算できないものの価値が正しく評価できなくなっている。そんななかでブロックチェーンを初め、暗号通貨、デジタル通貨といった技術が一般的になり、お金とは別の「価値定量化と交換のシステム(Token?)」が発明されようとしていると思います。

コミュニティ(同じ価値観を持つ人が所属する場)の中でしか通用しないかもしれない、でもコミュニティの中で通じる「コミュニティや他者のための活動」をうまく定量化し、さらに大事なのは、それを何らかの形で交換できる仕組み、が重要なインフラになるのではないでしょうか。これはグローバルに1つである必要はなく、分散したコミュニティ/システムの中でそれぞれが価値として残ればよい(デセントライゼーション)のです。

しかし、これは決して新しい概念ではなく、古くからある身近な例でいえば、お手伝いの「肩たたき券」とかも、それでしょうし、Facebookの友達の数や「いいね」の数なんかも近いところかもしれません。SDRs の目標達成のための重要な仕組みである、二酸化炭素排出権の売買/交換、なんかもこれにあたると思います。OSSで公開される「ノウハウ」や「技術」もそうかもしれません。

貨幣の原則はWikipediaによると、「価値尺度、流通手段、価値貯蔵の3機能を持つもの」とあります。いろいろと身近なところで、コミュニティでしか通用しない「貨幣」がある気がします。その貨幣やコミュニティ自体の「信頼」をブロックチェーンなどの技術で担保できると、ローカルな「貨幣」が流通可能になり、面白いことが起こる予感がしました。

最後に、全体から気になったキーワードをメモ。

  • シリコンバレー(と資本主義)のゴールは「Scale is Everything」になってしまっている
  • シンギュラリティ教
  • 働くことがイコールお金ではない、アテンション・エコノミー
  • いまのICOは最終的に損をする被害者がいるような仕組みの上に成り立っている、からダメ
  • ブロックチェーンなど新たなテクノロジーを考える視点において、大事なのは、効率化によるコスト削減ではなく、デセントライゼーションに向かうこと
  • ローカリティに学ぶべきこと、と、ローカルをつなぐ自動運転車というモビリティの関係
  • 自分の人生における「生きがい」を考えることが教育の本質
  • 足るを知る More than enough is, too much
  • ムーブメントには「ハッピー」が必要

さらっと読める本なので、他の人にも読んもらって、それをネタに議論などすると面白いかもしれません。


[books] 統計学が最強の学問である | 西内啓 はビジネスでデータを扱うのにとてもよい入門書でした

前々から気にはなっていたのですが、昨年度に会社に入ってきた新人さんの机においてあったので、「これは!」と借りて読ませて頂きました。私は現在は、データ分析にまつわる業務をしているのですが、仕事の中で感じてきたようなことがしっかりと明文化されており、非常に納得感の高い内容となっていました!一緒に働くメンバーにも、是非読んでもらいたい。


引用が多くなりますが、ざーっくり整理してみました。

ビッグデータ時代の、データへの向き合い方

統計学のビジネス活用の本質は「目的に対し何をしたらよいかという示唆を与えること」

はじめに「疫学の父」と呼ばれる ジョン・スノウのコレラの分析の話がでてきます。この話は以下のページによくまとまっていました

Argonauta:Newsletter:No.3:書評 'Snow on cholera' - 疫学の原点

非常に大きな意義のある仕事を成し遂げたスノウですが、

残念なことにスノウの主張は「科学的ではない」あるいは「確実な証拠がない」として学会や行政からは退けられたが、彼の助言に従ってコレラに汚染された水の使用を止めた町ではぱったりとコレラの感染が止まった(p.14)

というのはなかなか興味深い点です。いつの時代もKKD。いや、19世紀から何も変わっていないというのは問題ですね(笑)

このように

エビデンスは議論をぶっ飛ばして最善の答えを提示する。もちろんデータの取り方や解析方法によって、どれほどのレベルで正しいと言えるのか、どこまでのことを正しいと主張して間違いがないのかは異なってくる。しかしながら、エビデンスに反論しようとすれば理屈や経験などではなく、統計学的にデータや手法の限界を指摘するか、もしくは自説を裏付けるような新たなエビデンスを作るかといったやり方でなければ対抗できないのだ(p.18)

そして、いまやITと統計学の蜜月の時代。そんな、ビッグデータ時代に、あえてサンプリングによる情報コストの低減を、しっかりやり、トライ&エラーの方に重きをおくのもとても大事。データが大きすぎてはトライのコストも高くなるし、エラーの確認となればなおさらだ。

「まず正しい判断に必要な最小十分のデータを扱うこと」を推奨している...必ずしも最初からすべての解析を全データで行う必要はないのだ...結果を見ながらいろいろな手法やデータの切り口を試すという探索的解析においては、特にトライ&エラーの回数が重要になる。(p.54)

このあたりのプロセスと思考が、「普通の」の正しい仕様を作ってそれを実装していく答えのある「ソフトウェア開発」とは大きく違う点だと思う。いままで、ソフトウェアエンジニアでしっかり開発してきた方ほど、全く違うマインドセットになるので注意が必要になると思います。

データ分析の価値基準

データ分析の価値基準は

「その解析にかけたコスト以上の利益を自社にもたらすような判断につながるのだろうか?」という視点(p.58)

自社に利益をもたらすためには、「うーん・なるほど」だけではなく、さらに一歩先の「リアクション」が必要。そのような具体的な行動を引き出すために必要なのが、3つの問い。

1. 何かの要因が変化すれば利益は向上するのか?

2. そうした変化を起こすような行動は実際に可能なのか?

3. 変化を起こす行動が可能だとしてその利益はコストを上回るのか?

この3つの問に答えられた時点ではじめて「行動を起こすことで利益を向上させる」という見通しが立つ(p.59)

この3つの問いに、真摯に向き合い応える分析、それをビジネス意思決定者から引き出す分析が、本当に重要と思う。

説得力を高めるための、統計的検証による、「有意な差異」

データの中から、何らかの誤差とは考えにくい偏りを発見すれば、それは重要な示唆に富む仮説となる。こうした有望な仮説を抽出するスピードと精度こそが現代における統計学の第一の意義であり、うだうだ会議で机上の空論を戦い合わせることなどよりもよほど有益だろう(p.95)

データを見てデータドリブンで判断していこうぜ、という雰囲気は、明らかにでてきていると思う。が、そこに対して、このデータは本当に信用していいデータなの? その問いに応える手法はやはり重要。そこが崩れると誰も信用してくれなくなるし、やっぱりそれではKKDとあまり変わらない。分析からでてきたデータをみせた上、そのデータがどれほど信用できるのか、もしくはできないのか、客観的な目安が提示できるようになりたい。

とりあえずランダムに実験する価値

正解のない判断を個人のセンスに任せるぐらいなら、とりあえずランダム化して定期的に評価する、というやり方の方が長期的なメリットは大きい(p.121)

こういった実験的なアクションを継続して取れ、さらにそこからの学びを得て、次に活用する、そういった意志決定方法がより成長につながる、というのは面白い気づきだと思う。もちろん行動を起こすためのコストは場合によってはあるだろうが、逆に言えば、いかにそれを最小化し、行動につなげられる仕組みが作れるか、これが不確実な時代でチャンスを掴む者とそうでない者を分けるのだなと改めて感じた。個人のレベルでいえば、そういう環境に自分の身をおく、そういう環境を選ぶというのも重要と思う。

21世紀の統計家には求められるスキルは

その後、具体的な分析手法(回帰、マイニング、予測など)が、ひと通り紹介された上で、

ポイントは予測モデルから今後何をすべきかを議論したいのであれば、回帰モデルの方が役に立つ。こうした違いを理解したうえで適切な手法を選び分けることが、21世紀の統計家には求められるのである。(p.244)

統計学と計量経済学の「本質的」な違い、と我々のチャレンジ

この2つの学問は本質的な哲学が違う。

統計学は「帰納的」であり、計量経済学は「演繹的」。あるいは「実証」と「理論」。(p.259)

さらには、「工学」と「科学」も似ているかもしれない。我々がビジネスの世界で、データをより「科学的に」扱いたい、と取っているアプローチは、この2つの哲学の合流点なのかもしれないし、そうでありたいなと思った。

似たタイトルのシリーズがたくさんでてますが、「実践編」いつでも見れるようにと私も買いました。他は読み比べてませんが、「実践編」はより実践的と思います。


シンギュラリティ大学関連のイベントに参加 / Exponential Organizations

先日、シンギュラリティ大学 Japan Global Impact Challengeのファイナリスト発表のイベントを見にいってきました。告知サイトの造りがショボいのが気になる...

シンギュラリティ大学ジャパン・グローバルインパクトチャレンジ Winner's Ceremony
GICは、10億人に影響をあたえるようなビックなアイデアのコンテスト、とのことで、一体どんなぶっとんだアイデアが出てくるのかと楽しみにしたのですが、予想外にファイナリストの7つのアイデアは、案外こぢんまりしていて、そこはちょっと期待外れでした。10億人に影響を与えるって、なかなかすごいテーマですよね。

コンテスト以外にいくつか講演もありました。シンギュラリティ大学での活動の紹介や、飛躍的に進化している技術の最新動向の紹介、SUのプログラムで学んだ佐宗さんによる飛躍型企業になるための方法、また人工知能の研究者、東大の中島さんよる今後の人工知能について。これら講演はとても示唆を得られるものでした。

キーワード的にいくつか示唆・メモを上げておきます。

佐宗さん

  • MTP(Massive Transformative Purpose)
  • 6D(Digitized, Decptive, Disruptive, Dematerialize, Demonetize, Democratize)
  • MTPを妄想する方法
  • 企業の意義は、いまの大きな規模仕組みの効率化から、より早い規模の学びを得ることに変わる。そのためにはMTPを出していく必要がある
  • Issue Driven(How)とVision Driven(What if)
  • ExO(Exponential Organization) Canvas
  • 妄想を形にするためのOKR(Objectives and Key Results)

中島さん

  • 知能とは、「情報が足りない時に、それを何とかする力」
  • 知能には環境とのインタラクションが重要
  • 環境に対する2つの視点:鳥視点と虫視点。鳥は環境を俯瞰して捉え、虫は環境の中に入る。内から作用し変えられる
  • 今後のAIは虫のような視点が必要になるのではないか。この虫視点は、日本人が得意としている視点
  • そして環境に内から作用して、「得たいデータを自身で得ていく」そんなAIになっていくんじゃないか

本イベントを通じて、初めて聞いたシンギュラリティ大学用語=MTP, ExO, 6Dなどにも興味を持ったので、講演の中でも紹介されていた「Exponential Organizations」も読んでみました。非常に理解が進みました。

シンギュラリティ大学が教える飛躍する方法
サリム・イスマイル
日経BP社
2015-08-05

MTPやOKRの考え方は、企業だけでなく、自分の人生でも役立つ考え方と思いました。仕事や働き方・職場ではもちろん、人生でも、MTPを妄想し、OKRを意識して活用していきたいなと思います。OKRはもう少し勉強してみようと思います。

伊賀泰代 生産性. 組織としての生産性がどうしても低くなりがちな、日本の大企業のマネジメントが読むべき一冊

書店でも平積みで見ることの多い伊賀泰代さん著の「生産性」を読了しました。

著者ご自身のマッキンゼーでのキャリア後半が「採用」と「人材育成」の部門だったそうで、個人の生産性という話に加え、組織としての目線が多分にあったのが非常に興味深かったです。生産性って個人では考えてはいても、いざ組織で、となると、なんでも「可視化、定量化」とか「効率をばかり追う」とかなり、どうもギスギスするネガティブなイメージがつきまとうな、と感じていたからです。(そもそも会社でお金もらって働いているのに、仕事の仕方やアウトプットが個人のプライバシーだという考え方が、本来おかしいのですが...)

  • 生産性=アウトプット(付加価値)/投入資源。同じ資源でアウトプットを最大化するアプローチ、投入資源を最小するアプローチ、両方ある。後者は「効率・コスト削減」と言われるが、決してそれだけじゃない。
  • 生産性と創造性(イノベーション)は相反するものではない。そもそも創造性の高い仕事「しか」していない人はいないはずで、より創造性の高い仕事のアウトプットを増やすために、他の仕事の生産性も最大化し、そもそもどうやって生産性を上げるか、と頭を捻るところにイノベーションの種があることも多い

といった感じで「生産性」とはなにか。なぜ大事なのか、という話が説明されつつ、組織としての目線では、人材育成や上司・部下の話に続きます。外資の「マッキンゼー」とはいっても、日本法人はあくまで日本の労働環境が適用されるので、決して遠い国の話ではなく、年功序列で流動性の低い、日本の企業でやれること目線で説明されているのも非常に実用的だと感じました。

  • 上司・マネジメントの役割は「組織の生産性を上げる」ことと、不確定要素のある状況で「決断」し「リスクに備える」こと
  • どのように生産性を上げる方向にモチベートできるか、目標設定・評価の考え方
  • 人材育成の目的は、「生産性を上げること」そのもの
  • トップパフォーマと一般社員の2:6:2。トップパフォーマ、ハイパフォーマの伸ばし方
  • トップパフォーマが会社に求めているのは、成長機会と、成長支援のための目標設定と振り返り。トップパフォーマは社外のトップパフォーマがライバル
  • 実際の業務の生産性に直結するロールプレイング研修

終盤は

  • 生産性の高い「資料の作り方」
  • 生産性の高い「会議の仕方」

といった感じで、すべての社員に向けた具体的なアドバイスとなっていました。

全体としては、「組織としての生産性がどうしても低くなりがちな、日本の大企業のマネジメントが読むべき一冊」だと思います。とても論理的かつ、実用的な内容になっており、本書の目的どおり、非常に生産性の高い本になっていると感じました。



HRTはとてもシンプルなチームづくりのための原則

JAWS Days 2017 のあるセッションで紹介されていた、Team Geek - Googleのギークたちはいかにしてチームを作るのか - を読みました。良かったです。「HRT」というキーワードは常に思い出すべきよいキーワードでした。

HRTとは

  • Humility/謙虚
  • Respect/尊敬
  • Trust/信頼

の頭文字で、ハートと呼ぶ。すべての人間関係の衝突は、HRTの欠如によるもの。自分事で考えても、特に謙虚が足りていなかったなぁと身につまされます。そして少なくとも意図したかはおいても、うまく行っている場合は、お互いが信頼を持ち合っていると感じました。信頼に至ることができなかった場合はきっと、謙虚・尊敬が足りていなかったんだろうなぁ。

まとめると?

引用していると切りがないのですが、、、良いチームで良いプロダクトを作るため(本書はあくまで、よいプロダクトを作るためのチーム、という立場という理解)にはどうしたらよいか、をまとめてみました。

  • ハイレベルの同期=ミッションステートメント をした上で、仕事のコミュニケーション手段(Mtg, 1on1, Mail, Chat, 電話, ソースコード,,)は丁寧に選択・作る
  • チームにはキャプテンが必要で、キャプテンは自分のエゴではなくし、チームのエゴ(文化)を育む。問題解決はキャプテンではなく、チームメンバーが行うように支援する=特にここでHRTが大事
  • ここまでできたら自分とチームの責任範囲を「外側に」広げ、チームの価値を高める。ここでの組織間の関係性でもHRTが大事
  • さらに作り上げたプロダクトを使う顧客にもHRTを持って関係性を構築し、プロダクトの成功に役立てる=もちろん顧客と開発者の関係においてもHRTだ

シンプルな原則 HRT

とてもシンプルな原則 HRT は、チームづくりはもとより、さまざな局面で役立つキーワードでした。


深層学習(Deep Learning)/岡谷貴之 で深層学習の語彙を手に入れよう

いまや猫も杓子もAIですが、そのきっかけはおそらくDeepLearningによる画像識別の成功でしょう。OSS的な動きも含め、どんどんと研究が実装になり世の中に影響を与えています。研究がこれほどのスピード感で実世界で利用されるようになったという点もこれまでとは全く違ったことが起きているのではないでしょうか?発表された論文に実装コードが公開されているgithubのリンクがある、なんてこともよくあるそうです。

深層学習(多層ニューラルネットワーク)といっても実はざまざまな分野や解決する問題ごとに違うネットワークが開発されていることが、本書でわかりました。基本的な構造について勉強することができます。例えば、

  • 順伝播型ネットワーク(FNN)
  • 畳込みネットワーク(CNN)
  • 再帰型ニューラルネット(RNN)

です。

そして、それら代表的なネットワークの説明の中で、どうやって学習するか、どうやって汎化性能と過学習のバランスを獲得するかというおそらく多層ニューラルネットワークでいちばん本質的な課題についてどのように解決していったのか、学習のノウハウやトリックも含めて解説があり、(完全にはわからないところもありつつも)深層学習の世界の語彙を背景と共に理解することができました。

また近年、多層ニューラルネットワークが急速に性能を上げることができた背景として、

  • 一定上の規模の学習データがあること
  • クラスタ/並列処理を含む、計算機能力の向上

が上げられています。

まさに深層学習は、近年のインターネット/クラウドコンピューティングの成果といえるんですね。これから深層学習関連では、どんどん新しい手法が開発されていくと思いますが、本書を読むことで、そういったニュースを一歩深く、理解できるようになるんじゃないかと思います。


訪問者数

    Archives
    Categories
    記事検索
    Recent Comments
    Recent Trackbacks
    twitter
    • ライブドアブログ