近年、AIなどの新規技術の活用が急速に進むことによって、利用者が大きな期待をもつとともに不安も感じています。その期待に応え、不安を払拭するためにリコーグループではデジタルサービスの開発や社会実装、および運用に内在するリスクを抑制する活動に取り組んでいます。
リコーグループの商品・サービスは、お客様や利用者に不安・不満・不利益をもたらすことのないよう、倫理的・誠実な活動に基づいて提供されています。
リコーグループでは誰もが利用しやすく、働きやすい社会となるような技術を開発し、商品・サービスとして提供するために、倫理的・誠実な活動を「技術倫理」と定めました。「技術倫理」は、AIを含む、リコーグループが提供するデジタルサービス全般においての規範となるものです。
リコーグループはAIや映像デバイスを活用したさまざまなデジタルサービスの研究から開発・提供・運用までを網羅した「技術倫理憲章」を制定しました。
本憲章はAIなどの新規技術がもたらす利用者個人の人権や社会課題に関する重大な影響を及ぼすリスクや、システム開発の誤りにより差別や偏見、格差を助長してしまうなどの技術倫理に関する課題を強く自覚し、対応したものです。これによりデジタルサービスの開発や社会実装、および運用に内在する倫理的リスクを抑制します。
社会課題解決と人間中心のサービス開発による「はたらく歓び」の提供
多様な人々の価値観を尊重したサービスの提供と啓発
高い信頼性と安心感の維持管理が可能なサービス運用
デジタルサービスの核になるAIによる判断は、人を尊重し、社会の利益に資するよう責任をもって実装することが重要です。リコーグループは人権の尊重・善行(有益性)・正義(公正性)の理念に則り、人を起点としたデジタルサービスを提供するとともに、その質を保証するために、常にお客様の利用シーンを想定したデジタルサービスの開発に努め、はたらく歓びを提供します。
デジタルサービスの提供にあたって、潜在的かつ倫理的なリスクを抑制し、新たな価値の創出を図るには、研究や企画開発の時点において、システムやプロダクトにAI利活用する目的の適切さを担保することが重要です。リコーグループは、多様な社会課題を解決し、持続可能な社会の実現や、さまざまな背景を持つ世界中の人々のはたらく歓びの輪を広げるために、デジタルサービスの利活用の提案と関係者への啓発を行います。また、「人を対象とした」研究開発や実証実験においては、その国や地域、学協会が定める倫理指針に従い、倫理審査を実施します。
お客様に提供したデジタルサービスを使い続けていただくためには、社会実装後のシステムの信頼性確保(長期的かつ安定的に価値を提供し続けること)が重要です。リコーグループは、提供するデジタルサービスが社会や環境の変化に適応して継続的に受け入れられるような設計を心がけ、オフィス機器などのメンテナンスで育んできたサービス技術により維持改善に努めます。
デジタルサービスが本来デザインされた用途や動作条件から逸脱した使い方をされることで利用者に不利益をもたらさないよう、デジタルサービスの具体的な利活用シーンを開発要件の中に盛り込み、各利活用シーンにおけるリスクを踏まえた開発を行うように努めます。また、利用者や運用者などに対し、利用方針や利用条件などを示すことでデジタルサービスの適切な運用を推進します。さらに、デジタルサービスが利用される動作環境の変化、デジタルサービスの核になるAIが行う判断結果に対する人々の意識や社会状況の変化などを随時確認し、デジタルサービスの適切な維持管理と学習に努めます。
デジタルサービスの核になるAIの判断結果が、多様なステークホルダーの利益に資するとともに、人種・性別・国籍などによる差別や偏見を発生・助長することがないように、リコーグループはAI技術の教育・開発・運用に努めます。
デジタルサービスの学習・評価・運用に利用する入力データおよびサービスが出力するデータに関して、個人情報を適切に扱い、プライバシーを含む権利を保護するように努めます。
情報漏洩や改ざん、システムの破壊、サービスの妨害などを防止するよう、システムや運用レベルでの対策も含め、セキュリティを重視したデジタルサービスの実現・運用に努めます。
提供したデジタルサービスが想定通りの動作をするよう品質を検証し、利用者や運用者など関係者の生命や健康をはじめとする人権・財産・名誉・信頼・信用を守ることに努めます。同時に、地球環境や社会への悪影響を防止し、かつ、心地よく働けるワークプレイスを提供するデジタルサービスの実現・運用に努めます。
デジタルサービスの核になるAIの判断結果の根拠などを検証し、透明性の確保に努めるとともに、提供するサービスに関する説明責任を果たすよう努めます。
利用される国や地域の法令を遵守し、基本的な倫理観に則り、社会からの期待に応えるデジタルサービスの実現・運用を行います。そのために、研究・開発・設計・営業・保全などの関係者に対するリテラシーを育む教育環境を提供し、人材育成に努めます。
リコーグループでは技術倫理憲章に基づき、利用者起点の研究・開発から提供・運用まで網羅した活動をELSI*起点で行うことにより、デジタルサービス、およびその核となるAIによるリスク評価や対策を行っています。
「利用者起点で世界に安心と信頼の商品をお届けする」ため、2017年に「(研究)倫理審査」制度を導入し、技術倫理の展開を拡充してきました。2019年には倫理審査の対象を研究活動から技術開発まで拡げています。2023年にはAIなどによる懸念事項に配慮するために、技術倫理憲章の制定、専門組織の設置、組織横断的な推進委員会(リコー技術倫理推進委員会)を設置し活動を開始しました。さらに2024年には研究開発にリスクベースドマネジメントの手法であるテクノロジーアセスメント(TA:Technology Assessment)プロセスを導入しました。また、リコーグループ従業員を対象に技術倫理教育の提供を始めています。
リコーグループでは、CTO(Chief Technology Officer)をオーナーとした「リコー技術倫理推進委員会」をCEOの直轄組織として設置し、技術倫理リスクの抑制に向けて活動しています。
本委員会は各ビジネスユニット・グループ本部から選出された技術倫理推進委員で構成され、国内外グループ各社を含めて展開*しています。
本活動はリコーグループの重点経営戦略リスク「デジタルサービスの会社としてのR&Dプロセスの確立」の一つと位置づけられ、リスクマネジメント部門と連携しています。
リコーグループ各社が実施する研究機能に研究倫理審査制度を導入しています。本制度は倫理的観点および科学的観点から適正に研究が行われることを目的とし、「人を対象とする医学的研究」に加え、「人間工学研究」も対象にしています。近年、データを利活用するプロトタイピングの実証実験や社会実装が盛んになったことから、研究倫理審査制度の対象を研究機能だけでなく開発機能まで拡げています。
本制度では公正な審査を行うために、外部の有識者を含めたリコー倫理審査委員会を設置しています。
人を対象とする研究を行っている研究機能部門では研究の初期段階からELSIの影響を予測し、それに対する適切な対策をあらかじめ設計に盛り込む取り組みを行っています。この取り組みを“ELSI by Design”と呼び、それを確かにするためのプロセスとして第三者の声を取り入れたレビューを行うリスクマネジメントプロセス(RMP:Risk Management Process)を導入しています。
新規技術、特にAIの技術が飛躍的に発展したことで社会的に大きくクローズアップされているELSIに対処するためには、研究倫理審査制度とアジャイル型の開発ステップを融合する必要があります。その橋渡しとして、テクノロジーアセスメント(TA: Technology Assessment)を導入しています。
TAは包括的に抽出される複数のELSIへの対象要素(TA項目)に応える形で開発者がリスク分析し、対策を立案・実行します。その結果を第三者的立場の審査者が申請時点のリスクの見立てと対策効果(次ステップで行う計画を含む)をレビューします。商品・サービスの開発者と審査者はアジャイル開発に沿って、開発初期から必要に応じて繰り返しTAを実施することで、発売までにリスクをコントロールします。
技術倫理リスクの抑制には研究・開発部門だけに限らず、リコーグループ従業員全員の理解と行動が必要です。そのために技術倫理についての理解と気づきの啓発を実施しています。
私たちの商品・サービスがお客様や利用者に不安や不利益をもたらさないよう、一人ひとりが倫理的かつ誠実に活動することの重要性を啓発するため、国内リコーグループ従業員に対して技術倫理教育を実施しています。
倫理に関する世の中の動きや問題を理解し、気づきを得て事業活動や日々の行動につなげることを目的に、リコーグループ従業員を対象とした社内外の有識者による技術倫理の講演やシンポジウムを開催しています。
リコーグループ従業員に対し、技術倫理の理解・浸透を図るために技術倫理に関するトピックス(社内ルールや取り組み・世の中の事例など)を定期的に発信しています。
2022年より大阪大学ELSIセンターと共同で、新規技術およびソリューションの社会実装時に起こりうる社会的リスクの回避に向けて、ELSI視点を踏まえた社会実装プロセスの研究を進めています。具体的な取り組みは以下の通りです。