人工知能に関する議論
人工知能とは何かの定義も、関係者とは誰か、その役割とは何かも多様である。対話をする時には、参加者の間で「今何を議論しているのか」を共有しないと話が噛み合わなくなる。特に報告書や原則などを最終的なアウトプットとして作成しなければならない議論の場合、定義問題を曖昧にしておくと話が進まない。これらの報告書や原則は、勝手に作られるわけではなく、参加者の主張や関係する組織の利害、政治的な思惑や国際的なプレゼンスの演出法など、様々な要因を調整して構築される。
言葉や定義の違いは、互いの定義や認識をすりあわせれば、少なくとも会話や合意に至ることもある。但し、そもそも認識が異なる場合は、考え方は理解できるが納得はできない、賛同できないことになる。
技術が信頼されるためには、政策関係者や法・倫理などの研究者とともに仕組みを構築していくことが求められる。また、ニーズとシーズのミスマッチを解消するために、産業や分野ごとの企業や専門家、ユーザーとの連携を行っていく必要がある。
現在の人工知能を含む技術のイノベーションとコントロールの仕組みづくり(ガバナンス)には、技術コミュニティによる自主的な行動規範や産業による自主規制などのほか、多くのステイクホルダーの合議によって形成されるガイドラインや原則、法規制も含まれる。人工知能技術のように技術発展のスピードが速い分野においては、「つくって終わり」ではなく、「走りながら考える」「政策を開いて閉じて」を繰り返し、多様な人々を巻き込んで考えることを定常的に行える場の構築が求められる。
基本的に技術は社会に役に立つことを目指してつくられる。技術開発者によるシーズと現場のニーズがうまくかみ合うことによって、新たな価値観や使われ方が生まれてくる。また「人間とは何か」という哲学的な問いは、人工知能研究者や法学者、倫理学者をはじめとする人文・社会科学者が共通して持つ普遍的なテーマでもある。
人工知能に関する議論の多くは、課題に対して技術的にどのように対応していくかということ、また産業界のベストプラクティスや倫理研究の導入など、少しずつ具体的な動きも見られる。これらの人、技術、資金、制度、価値観など、様々なネットワークの中から「人工知能と社会」の関係性が形作られている。関係性の中からは、次世代の技術や人材、価値観や概念などが浮かび上がってくる。
人工知能が浸透した社会はどのようなものなのか。この問いは、最終的に私たちが「どういう社会にしたいのか」を考えることにつながる。人工知能やロボットは私たちの社会が持つ倫理観や社会的な規範、欲望を映し出す鏡だからである。