AIを最新ニュースから学ぶ

AIについて最新のニュースを交えながら学習していきます

日立と損保ジャパン日本興亜、 全国初、さいたま市でAIを活用したインフルエンザ予報サービスの実証を開始

f:id:AINEWS:20191209033420j:plain

今日は、回帰について学んでいきましょう。

まずは、日立が12月4日にプレスリリースした以下の記事からどうぞ。 


インフルエンザの流行状況をお知らせするほか、予防に役立つ関連情報も配信

日立と、損保ジャパン日本興亜は、このたび、さいたま市において、AIを活用し、インフルエンザの流行状況を予測・情報配信するサービスの実証を、2019年12月6日から開始します。
  本サービスは、日本医師会ORCA管理機構が全国4,000以上の協力医療機関から提供を受けた、インフルエンザを含む感染症の罹患者数データを市区町村別に纏めた「ORCAサーベイランス」を用いており、医療機関の提供データに基づいた高精度な予報サービスです。なお、インフルエンザなど感染症予報に関する実証を自治体規模で行うことは、全国で初めての取り組みとなります。

f:id:AINEWS:20191209033522j:plain

今回の実証では、今後流行が予測されるインフルエンザの罹患率の低下に向けて、さいたま市における4週間先までのインフルエンザの流行度合い(レベル0~レベル3)を予報する住民向けWebサイトを立ち上げ、公開します。

情報元:

https://www.hitachi.co.jp/New/cnews/month/2019/12/1204.html

 

住民向けWebサイト

インフルエンザ予報【実証実験用、テスト公開中】

※Webサイトを見る限り、1週間に1度更新するとなっている。その日の天候により感染のしやすさは変化すると思われるので、感染者数の推移とその日の天候で予報しないのだろうか。また、子供、大人でも感染者数にばらつきがでるのではないだろうか。感染経路を見つけるくらいのことができないとあまり、AIを使用しているとはいえないのではないだろうか。


 f:id:AINEWS:20191209033826j:plain

【解説】回帰

蓄積されたデータから機械が関係性を読み取り、新しいデータや未来のデータを予測する方法です。株価の予測や売り行きなどの連続値になります。

 回帰の種類

  • 線形単回帰
  • 線形重回帰
  • ラッソ回帰
  • リッジ回帰
  • ElasticNet回帰
  • 非線形
  • 時系列

 回帰のコード

 時系列モデルの中で統合的な SARIMA のコードを以下に示します。

import statsmodels.api as sm

# SARIMAモデルを適用する
fit_SARIMA_flu = sm.tsa.statespace.SARIMAX("データ",order=(0, 0, 0),seasonal_order=(0, 1, 1, 12)).fit()

# predに予測データを代入する
pred = fit_SARIMA_flu.predict("2019-12-31", "2020-3-31")

独自の顔認識技術を活用した「顔識別ソリューション」を提供

f:id:AINEWS:20191205035504j:plain

今日は、顔認証ゲートについて学んでいきましょう。

まずは、グルーブノーツが12月4日にプレスリリースした以下の記事からどうぞ。

 


〜たった1枚の画像からでも。高性能にAIで顔を照合するモデルをプリセット〜

グルーヴノーツは、独自の深層学習技術を活用した顔認識モデルの開発、高性能化することに成功しました。学習用データの量や質に依存することなく、少ない画像データからでも高精度に人の顔を識別できるこの技術を「MAGELLAN BLOCKS」の標準機能として搭載。見分けたい画像の学習から特定までを一気通貫で実現する新たなモジュール「顔識別ソリューション」として提供開始いたします。

f:id:AINEWS:20191205022109p:plain

情報元:

https://www.groovenauts.jp/2019/12/04/information-54/

 


 

f:id:AINEWS:20191205035614j:plain

【解説】顔認証ゲート

羽田空港や成田空港,関西空港福岡空港,中部空港,新千歳空港及び那覇空港において手続きの合理化、審査の厳格化と円滑化を目的に、顔認証ゲートが導入されています。日本人向けは、すでに導入済みで外国人向けにも2019年7月24日から開始し、今年中に195台、2020年に残り8台を設置する予定となっています。

パスポートのICチップに埋め込まれている顔の画像と照合して本人確認を行います。

 

顔認証ゲートの例

顔認証システムのしくみ

ディープラーニングにより、特徴量を数値化し、類似度を計算する。

写真で騙すことを防ぐための3次元顔認証(顔を数万のパーツとしてそれぞれの深度を測定)や赤外線による顔の特徴を取得して数値化、判定する。

 

監視社会

  • 防犯対策のため、警視庁が「街頭防犯カメラシステム」を新宿、渋谷、歌舞伎町などに約200台設置し、H30年は、421 件の犯罪を立件している。
  • 中国では、「天網」というAIを用いた監視カメラが2017時点で1億7000万台設置されており、3年で4億台を設置する計画となっている。
  • イギリスでは、600万台の監視カメラにより、1日300回はカメラで撮影されている。

顔認証以外でも人物特定

  • 日立は、全身特徴から人物を特定するシステムを販売

NEC、水資源機構とともに、アユの遡上数を自動計測するシステムの実証を実施

f:id:AINEWS:20191202035414j:plain

今日は、転移学習について学んでいきましょう。

まずは、NECが11月28日にプレスリリースした以下の記事からどうぞ。

 


~計測品質の均一化や計測業務の効率化を確認~

NECは、独立行政法人水資源機構(以下、水資源機構)とともに、長良川河口堰(注1)においてアユの遡上数を自動で計測するシステムの実証を本年4月から8月にかけて実施し、計測品質の均一化や計測業務の効率化の効果を確認しました。
NECは、今回の実証を踏まえ、本システムの来年度の実用化を目指します。

水資源機構では、長良川河口堰の運用開始以降、河川環境保全を図りながら、より適切な運用を行うため、環境変化の調査として、毎年、河口堰の魚道(注2)を遡上するアユの稚魚の調査を、遡上が確認され始める4月から6月末までの間、ほぼ毎日実施しています。
これまでの調査は、魚道にカメラを設置し、日の出から日没までの約12時間録画した映像を目視で計測していましたが、より効率的な計測方法を目指し、AIを用いた自動計測システムの検討・実証を行いました。

今回開発したシステムは、魚道に設置したカメラ映像をクラウド上に保管し、あらかじめAIで学習させた稚魚の泳ぎ方からアユかアユ以外かの魚種判定を行いつつ、自動でアユの遡上数を計測するものです。今回の実証では、天候や日照条件に左右される屋外の映像においても約94%の精度となる計56万匹のアユをほぼリアルタイムで計測し、目視での計測と比較して、計測品質の均一化や計測業務効率化の効果を確認しました。

f:id:AINEWS:20191202034818j:plain


情報元:

 

https://jpn.nec.com/press/201911/20191128_02.html

 


 

f:id:AINEWS:20191202051639j:plain

【解説】転移学習

 ある領域ですでに学習したモデルを、別の領域にも適合させるために学習することをいう。多くの学習済のモデルが公開されており、それらを使用することで短期間で画像認識、言語処理等、実装できる。

 

学習済モデルの例

学習済モデルとして、以下のようなものがあります。

  • AlexNet
  • Inception-ResNet
  • Inception
  • MobileNet
  • ResNet-50
  • Xception
  • BERT
  • NasNET

他にも多数あり、上記は、Tensorflow Hubで自由にモデルをダウンロードして使うことができる。

メッドサポートシステムズとNTTデータが脳MRI画像診断領域において商用利用に向けたAI画像診断支援ソリューションの実証実験を開始

f:id:AINEWS:20191201074013j:plain

今日は、画像処理の正規化について学んでいきましょう。

まずは、NTTデータが11月29日にプレスリリースした以下の記事からどうぞ。

 


メッドサポートシステムズの画像診断情報システムのノウハウとNTTデータのAI技術を用い、脳MRI撮影画像に対するAI診断支援エンジンとAI診断支援実証用ビューアを開発し、その有用性を評価します。
メッドサポートシステムズとNTTデータは、2020年3月までに本実証実験を完了し、2020年度内をめどにサービス展開を目指します。これにより、急性期の診断支援から人間ドックなどの予防医療への支援まで、幅広い範囲の読影業務において、医療の質向上を伴った診断作業の効率化を目指します。

f:id:AINEWS:20191201051522j:plain

 

情報元:

https://www.nttdata.com/jp/ja/news/release/2019/112900/

 


 

f:id:AINEWS:20191201074046j:plain

【解説】画像処理の正規化

ある決まりに従ってデータ処理を行い、特徴量を際立たせたり、無駄な情報を排除して処理しやすくすることをいいます。

正規化の種類

正規化には、以下のようなものがあります。

  • バッチ正規化:正規化(以下、実装方法参照)
  • 主成分分析:次元圧縮
  • 特異値分解:次元圧縮
  • 局所コントラスト正規化:局所領域の減算正規化と除算正規化
  • ZCA whitening:白色化

正規化の実装

正規化をPythonで実装する方法を紹介します。

  • バッチ正規化

バッチ正規化は、以下のようにデータの前処理にではなく、中間層で正規化処理を入れることで 勾配消失・爆発を起こすことなく学習係数を大きくでき、その結果、学習の収束速度を向上できるといわれています。

  # tensorflowの場合
    from tflearn.layers.normalization import batch_normalization
# 畳み込み層のあと、全結合層のあと(ReLUの前)に以下を挿入する。
batch_normalization()

# kerasの場合
from tflearn.layers.normalization import batch_normalization
# 畳み込み層のあと、全結合層のあと(ReLUの前)に以下を挿入する。
model.add(BatchNormalization())

NTT西日本が手書き文書のデジタル化を実現する「おまかせAI OCR」の提供開始

f:id:AINEWS:20191127022103j:plain

今日は、AI OCRについて学んでいきましょう。

まずは、NTT西日本が11月25日にプレスリリースした以下の記事からどうぞ。

 


サブスクリプションOCRサービスで、中堅中小企業のDXを実現~

AI inside 株式会社とNTT西日本は、AI inside が開発したAI-OCRサービス「DX Suite」に、NTT西日本のもつきめ細やかなお客さまサポートを組み合わせた「おまかせAI OCR」を2019年12月2日(月)より提供開始いたします。「おまかせAI OCR」は、操作説明、設定代行、問合せ対応等のお客さまサポートを標準搭載した手書き文書のデジタル化を実現するサービスとして、中堅中小企業でのデジタルトランスフォーメーション(DX)実現を目ざします。

f:id:AINEWS:20191127022547g:plain

情報元:

https://www.ntt-west.co.jp/news/1911/191125a.html

 


【解説】AI OCR

AI技術(画像認識、機械学習自然言語処理)を用いたOCR(文字認識)のことで、最近では、RPA(業務の自動化ソフト)と組み合わせた効率化を謳った製品が多く売られている。

手書き以外であれば、googleドライブやEvernoteなど無料で十分使えるものが多く出回っている。

しかし、手書き文字となると認識率が一気に下がって使い物にならない。

今回のNTT西日本が提供する「おまかせAI OCR」は、月額3万円で利用できるとあるから、他社が提供しているサービスより、かなり安く設定されている。

例えば、以下のような同様のサービスがある。

  • NTT東日本「AIよみと~る」  月額11万円(本記事と同様のAI inside が開発したAI-OCRサービス「DX Suite」をベースにしている。)月額11万円
  • AI inside「DX Suite」月額10万円
  • TIS「Paper Searcher」(Tegaki 「Tegaki」)月額10万円~

AI OCRの用途としては、手書きで書かれた以下のようなものに使われています。

  • アンケート
  • 発注書
  • 問診票
  • 申込書
  • 筆記試験

問題点として、クラウド上に情報がアップロードされてしまうことでしょう。AI OCRを使うためには、個人情報と切り離し、結びつかないようにフォーマット自体を変える必要があります。

 

富士ゼロックスと慶應義塾大学が、デジタルモノづくりの変革をもたらす3Dデータ基盤を構築

 

f:id:AINEWS:20191125051848j:plain

今日は、3Dプリンタについて学んでいきましょう。

まずは、富士ゼロックスが11月21日にプレスリリースした以下の記事からどうぞ。

 


世界初3Dデータフォーマット「FAV」がJISに制定

富士ゼロックスと、慶應義塾大学は、文部科学省COIプログラムの一環として2016年に共同開発した世界初3Dプリント用データフォーマット「FAV」の活用範囲を広げ、デジタルモノづくりを支える3Dデータ基盤を構築しました。

従来「FAV」は、CADで設計したデータ以外に立体物の内部構造・色・材料・接合強度などまでを含めた3次元の複雑な情報を保持できる3Dプリント用データでしたが、3Dプリント以外の強度を表す構造解析データなど様々な3Dデータの情報を扱えるように新たに仕様を拡張し、モノづくり工程における3Dデータの一元管理を可能にしました。また、大量の「FAV」仕様のデータをビッグデータとしてAI(人工知能)で活用することでCADを使わずに、手書き図面からその3D形状を瞬時に表現するといった新たなコミュニケーション手段としての活用も生まれています。

~中略

また、慶應義塾大学では、AIや立体地図などの様々な応用領域での「FAV」の活用による新しい価値創造を目指します。

f:id:AINEWS:20191125051614p:plain


情報元:

https://www.fujixerox.co.jp/company/news/release/2019/67655

 


【解説】3Dプリンタ

日本では、2,3年前までは、3Dプリンタは、10万円程度していたが、現在では、1万円台から購入できる。また、DMMなど、3Dプリンタの出力サービスを行っている。

世界では、3Dプリンタを使って住宅、アパート、オフィス、公衆トイレが作られており、実際に入居したり、使われている。住宅は、40万円のもの60万円のものなど、非常に格安でしかも24時間で建てることができる。

f:id:AINEWS:20191125055049j:plain

出展:fuseproject

 

日本では、コンテナ住宅などがあるが、3Dプリンタで安く自由に設計できるのであれば、耐震性能さえクリアできれば、いろいろなところで今後見られることになるでしょう。キャンプ場やレンタルオフィス、海岸沿いにレンタルハウスなどデザイン次第で集客も見込めそうだ。

 

www.youtube.com

 

3DプリンタにおけるAIの活用としては、上記の他に立地によって土台部分の設計を自動で補正したり、遮光を計算して窓の配置を補正したり、耐震性や住環境の面から材料の選定といった設計段階での使用や3Dプリンタでの作成時に材料の状況、気温、湿度から、自ら補正をして設計書どおりに作っていくときに使用するといった応用が考えられる。

 

 

 

IBM、ナスカ台地とその周辺部で143点の新たな地上絵を発見

 

f:id:AINEWS:20191116181517j:plain

今日は、画像処理で利用するデータクレンジングについて学んでいきましょう。

まずは、IBMが11月15日にプレスリリースした以下の記事からどうぞ。


ナスカ台地とその周辺部で143点の新たな地上絵を発見

IBMのAI(人工知能)技術で地上絵の全体像把握を目指す ~

山形大学の坂井正人教授(文化人類学アンデス考古学)らの研究グループは、南米ペルーのナスカ台地とその周辺部で新たに人や動物などの具象的な地上絵142点を発見しました。2018年までに実施された現地調査と高解像度三次元画像のデータ解析などにより発見したもので、主にナスカ台地の西部に分布します。紀元前100年~紀元300年頃に描かれたと考えられます。また、2018年〜2019年に実施された日本IBMとの共同での実証実験においては、高解像度な空撮写真等の大容量のデータを高速に処理できるAIサーバーIBM® Power System AC922上に構築されたディープ・ラーニング・プラットフォームIBM Watson Machine Learning Community Edition(旧名:IBM PowerAI)でAIモデルを開発し、新たな地上絵1点を発見しました。
山形大学は、2004年から坂井教授を中心にユネスコ世界文化遺産「ナスカの地上絵」研究に取り組み、数多くの地上絵を発見するとともに、保護活動を推進してきました。しかしながら、地上絵の分布調査は未だ充分ではなく、市街地の拡大に伴って、破壊が進み、社会問題となっています。このたび、日本IBMとの共同での実証実験を踏まえて、リモートセンシングとAIを研究してきたIBMワトソン研究所と共同研究を実施するために学術協定を締結しました。今後は、同社の3次元時空間データを高速かつ効率的に解析するAIプラットフォームである「IBM PAIRS Geoscope(以下IBM PAIRS)」を活用することで、地上絵の分布状況の把握を進め、現地調査に基づいた分布図を作成する予定です。これにより、ナスカの地上絵の全体像を把握し、研究を加速させるとともに、世界遺産ナスカの地上絵の保護活動への貢献が期待されます。

情報元:

IBM ニュースルーム - 2019-11-15 ナスカ台地とその周辺部で143点の新たな地上絵を発見 - Japan

 


 【解説】データクレンジング 

f:id:AINEWS:20191116182012j:plain

 

データクレンジングとは

重複や欠損データなどを取り除いて、データの精度を高めること』のことを指します。

ディープラーニングの手順

ディープラーニング(とくに、教師あり学習)は、主に以下の手順で行います。

  1. データ収集
  2. データクレンジング
  3. 学習
  4. 評価
  5. 実装

データベースやExcelファイル等で保存されているデータをそのまま使えることは、まずありません。正しく学習できるように、前処理をしなくてはなりません。データの収集とデータクレンジングで8割以上の時間を要するといわれるくらい、データサイエンティストにとって地道で重要な仕事になります。また、サービス形態としてリアルタイム処理が必要な場合は、データ収集やデータクレンジングに時間をかけられないので業務やデータベースを変更する必要が生じたりするので、クレンジングの知識は重要となります。

画像処理で利用するデータクレンジングの種類

データクレンジングの方法は、多数ありますが、ここでは、画像処理に特化すると以下のような手法があります。

  • トリミング・・・画像の一部を切り取る。不要な箇所を取り除き、必要なところだけを抜き出して処理したい場合に利用します。
  • リサイズ・・・画像の大きさを変更する。通常学習するためのモデルには、インプットが同じ大きさである必要があるため利用します。
  • マスキング・・・特定の色の画像を取り出す。特定の画像を検索したり、不要な画像を排除したりする場合に利用します。
  • ノイズの除去・・・荒い画像をスムーズに変えたり、ゴミのようなものが点々とあるような画像からそれらを取り除く。
  • 膨張・収縮処理・・・膨張・収縮することでノイズを除去する。

データクレンジングの実装

データクレンジングPythonで実装する方法を紹介します。

  • トリミング
    import cv2
    # 画像読み込み
    img = cv2.imread("AAA.jpg")
    # img[上部 : 下部, 左側 : 右側]を取り出し
    img_cut = img[10 : 150, 10: 50]
  • リサイズ
    import cv2
    # 画像読み込み
    img = cv2.imread("AAA.jpg")
    # cv2.resize(画像データ, (リサイズ後の幅, リサイズ後の高さ))
    img_resize = cv3.resize(img,10, 10)
  • マスキング
    import cv2
    # 画像読み込み
    img = cv2.imread("AAA.jpg")
    # マスク用画像(0:グレースケール画像)
    mask = cv2.imread("mask.png", 0)
    # マスク用画像を、同じサイズにリサイズ
    mask = cv2.resize(mask, (img.shape[1], img.shape[0]))
    # マスキング
    img_masked = cv2.bitwise_and(img, img, mask = mask)
  • ノイズの除去
    import cv2
    # 画像読み込み
    img = cv2.imread("AAA.jpg")
    # ノイズ除去
    img_Noise_cancel = cv2.fastNlMeansDenoisingColored(img)
  • 膨張・収縮処理
    import cv2
    import numpy as np
    # 画像読み込み(グレースケールで読み込み)
    img = cv2.imread("AAA.jpg",0)
    # 二値画像に変換
    retval, img = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY)
    # フィルタの定義
    filt = np.array([[0, 1, 0], [1, 0, 1], [0, 1, 0]], np.uint8)
    # 膨張
    cv2.dilate(img, filt)
    # 収縮
    cv2.erode(img, filt)