IT法務の基本⑦ ビッグデータ/AI

 ビッグデータ/AIは、実社会における利用が一気に進んできましたが、法制面での対応は遅れています。以前から、従来型のデータの利活用(データベース)やプログラムによる自動化(自動発注)は行われていたものの、前者については法的客体を有体物中心に考える、後者については法的主体を人に限る、という伝統的な枠組みのため、新技術と法律との距離を大きくしてきたと言えます。そのため、現状の法律の解釈や工夫により対応できる(せざるを得ない)部分もありますが、自動運転のように新たな立法が不可欠と考えられる分野も多くあります。
 また、技術の更なる進展により、これまで考えられていなかった法律問題や倫理問題にまで発展する可能性があります。

ビッグデータ/AI TOPICS (6)

データの権利関係

 データについての権利関係が問題になるのは、ビッグデータに限られません。しばしば、企業の営業・技術データ等について、「所有権」という言葉が使われることがありますが、データは情報の一種であり、排他的な管理支配ができない(許すべきでない)ため、所有権のような包括的な権利は認められません。
 しかし、データにもいくつかの法的保護が与えられます。まず、単なるデータの集積物ではなく、選択や体系的な構成に創作性が認められる場合、著作権法の「データベースの著作物」として保護される可能性があります。また、秘密管理性、有用性、非公知性が認められる場合は、不正競争防止法上の営業秘密として保護されます。さらに、相当の労力と費用が投下されたデータベースがデッドコピーされたような場合は、不法行為法における利益として保護されることがあります。

個人データの保護

 ビッグデータが個人情報を含む場合、個人情報保護法の対象となり、利用目的の範囲内での利用や第三者提供の制限等の規制を受けることになります。しかし、これではデータの利活用が大きく制限されるため、個人情報を匿名化し、特定の個人を識別することができず、個人情報を復元することもできない「匿名加工情報」とすることで、比較的自由に利活用することができるようになります。
 ただし、匿名化するに当たっては、個人情報保護委員会規則に従い、基準で認められた仮名化や項目削除等の方法により加工すること、安全管理措置を講ずること、等の条件を満たすことが必要です。また、このように匿名化したとしても、例えば流通先の第三者の下で他の情報と照合するなどして匿名化が破れてしまうことがあり得ます。そうした場合、法的責任は免れるとしても、利用企業の信用に傷をつけることになりかねませんので、注意が必要です。

AIの権利関係

 AIは通常、プログラムの形で実装されていますので、プログラムの著作物として著作権が認められる可能性があります。もちろん、プログラムでも技術合理性の裏返しとして、創作性や個性に欠けるものは著作物性が否定されることがありますが、AIと言えるほどの複雑性を備えたものであれば、要件をクリアする可能性が高いと言えます。同様に、要件を満たす限り、ソフトウェア特許の対象となる可能性があります。
 AIを構成する学習済みモデルは、それ自体としてはデータ(パラメータ)の集積にすぎないため、プログラムの著作物とはならないと考えられます。特許権との関係でも同様ですが、「電子計算機による処理の用に供する情報であつてプログラムに準ずるもの」として保護される可能性はあります。学習済みモデルについては、通常は上記のデータの権利関係と同様の形で保護を図っていくことになると思われます。

AIソフトウェアの開発契約

 AIの技術を利用したソフトウェアの開発(典型的には、機械学習により学習済みモデルを生成するもの)では、そもそもの開発対象やその動作原理が事前には明確になっていないことが多くあります。そのため、動作や性能が期待どおりでなかったり、その評価や検証すら困難な場合があります。他方で、開発の過程で中間ノウハウや関連技術についての知見などが、想定外に得られることも少なくありません。成果についての振幅が大きく、開発委託というよりは共同研究のような活動に近い面があります。
 そのため、開発の委託契約に当たっては、従来型のソフトウェア開発の場合とは異なる考慮が必要です。例えば、非ウォーターフォール型を前提にした準委任類型の契約、元データやノウハウの提供に関する役割分担、成果物の検証又は評価の方法及び基準、中間成果物、最終成果物及び想定外の成果物に関する権利帰属(及びその報酬との関連づけ)、成果物の再利用の可否及び条件、といった事項が挙げられます。

AIによる行為・取引の責任

 従来型のソフトウェアの延長にとどまらず、ネットワーク上でのbotや取引システムに組み込まれたものなど、AIが人間と同様に(あるいは人間の補助として)実世界で活動する可能性が広がっており、その行為や取引の責任関係が問題になります。現在の法律では、AI自体(プログラムやデータ)、AIが化体されたモノは法的責任の主体にはなりませんので、当該AIの周辺にいる関係者(自然人か法人)に責任ないし効果が帰属することになります。
 通常は、そのAIの所有者又は管理者が、法的責任の主体となると考えられます。例えば、ネットワークに放ったAIがバグによりシステムを破壊した場合、その放った者が民事・刑事の責任を負い、自動発注システムが所定の商品を注文した場合は、それを設置し利用した者に注文の効果が帰属する(商品を受け取り、代金を支払う)という具合です。もっとも、製造物責任が問題となる場合や取引の相手方にAIを利用させる場合など、AIの開発者あるいは提供者の責任が問われる場合も考えられます。

AIスコアリング

 ECサイトやグルメサイトでの星数の評価もスコアリングの一種ですが、信用情報サービスや自動車保険でのテレマティックスにおいて、AIを利用して利用者の情報や活動をスコアリングする動きが進んでいます。従来は困難であった無担保での融資が可能になるなど、サービスの幅が広がるといったメリットがあります。
 他方で、スコアリングのために個人情報が包括的に利用されることの問題点(改正個人情報保護法で一定の個人関連情報の移転について制限が設けられます)や、データから造られた人物像が独り歩きしかねないというプロファイリングと同様の危惧も指摘されています。スコアリングの基となった情報や評価手法を事業者が十分に開示・説明できるのかという、AI利用に共通する透明性の問題もあります。