
ビッグデータ時代の品質管理<2015年09月08日>

ビッグデータ、データサイエンティスト関連の書籍は多数出版され、また、様々なセミナーが開催されており、人気がある。今さら、ビッグデータを説明する必要のないほどである。ビッグデータは情報インフラの成熟により、現状をリアルタイムに、広範囲に、そして、正規な測定データからソーシャルメディアまで多方面から観測した集合体であり、現状の姿を正確に表しているのではないかという期待感から注目されているのであろう。つまり、ビジネスにヒントを与えてくれる問題や課題が、ビッグデータには潜在的に含まれており、そして、それを掘り起こすことでビジネスチャンスを得ようとするのである。ビッグデータの中でデータ駆動型企業と言われるように、ビッグデータはマネジメントのあり方も含んだ意味になっている。
この「あり方」、品質管理の者にとっては、品質管理論が中核としてきたもの(データの規模は違うが)である。ビッグデータだけが・・・という姿勢には気をつけ、冷静に分析する必要があるだろう。
ビッグデータ活用事例を マーケティング・企画 → 設計 → 生産 → 販売・流通 →アフターサービスの製品ライフサイクル、および、技術開発、教育・訓練などの製品ライフサイクルに対するオフライン部門を含む観点から整理すると、ビッグデータはマーケティング・企画、販売、アフターサービスなどの顧客と企業との接点における活動が主であり、品質管理や全社的品質管理は設計、生産、技術開発や教育・訓練など顧客からは見えない企業内の活動が主というコントラストが見える。だからと言って、ビッグデータと品質管理を補完的や包含的に考えるはナイーブだろう。ビッグデータはセンサー技術、情報技術、情報インフラの熟達によるものであり、これはどの部門にも影響を与えている。これからは品質管理が培ってきた管理論や手法論をさらに進化・深化させ、習得する必要がある。特に、データ解析においてはなおさらであり、急務であると考えられる。



安井 清一
2006年東京理科大学理工学研究科経営工学専攻博士後期課程修了、博士(工学)取得後、
東京理科大学理工学部経営工学科助手を経て、現在、助教。
主な専門分野は、統計的品質管理。

