データマイニング技術の背景にあるコンセプトは、Agrawal氏が1990年代初頭に、英国のデパートチェーンMarks & Spencerの幹部と昼食を取っていた際に交わした会話から生まれたという。当時、Marks & Spencerはさまざまなデータを収集していたが、それをどう扱うべきか分かっていなかった。
Agrawal氏とその配下のチームは、無制限に問い合わせを行うアルゴリズムの考案に着手し、1993年にデータマイニングに関する論文を執筆した。同論文は650件以上の他の研究報告書に引用され、この種の文書としては最も広く取り上げられたものの1つとなった。
「人々から単純すぎると指摘されるのではないかという懸念から、このような論文を投稿してよいものかどうかためらっていた」(Agrawal氏)
Agrawal氏はここ最近は、ランダム化の研究に取り組んでいる。Agrawal氏が取り組んでいる技術では、データをデータベースに保管する際にスクランブル処理を実施し、データ保有者のプライバシーを確保する。それでも、数学者は、ランダム化されたデータに確率コンピューティング技法を適用すれば、実際のデータが示すはずのものと同じ傾向を見いだすことができる。
これにより、企業は18〜24歳の消費者の情報を、プライバシーに配慮しながら扱うことが可能になった。この場合、データの原本がデータベースに入力されることは決してない。
ランダム化に関する科学的論拠というテーマは、学術研究論文でも取り上げられるようになっている。Agrawal氏は数年前に行われたインタビューの中で、これを「数学の美」と端的に言い表していた。
この記事は海外CNET Networks発のニュースを編集部が日本向けに編集したものです。海外CNET Networksの記事へ
CNET Japanの記事を毎朝メールでまとめ読み(無料)
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス