オランダ データ保護庁 「AI による感情認識は疑わしく、リスクが高い」(2025.07.15)
こんにちは、丸山満彦です。
オランダのデータ保護庁が発行している、AI およびアルゴリズムに関する報告書(2025年7月)によると、現在のところ、
・AI による感情認識は疑わしく、リスクが高い
と結論づけていますね...
・感情表現は普遍的ではなく、測定可能性については議論があり、
・AIシステムが感情をどのように認識しているのか、その結果が信頼できるかどうかが必ずしも明確ではない
からということということですかね...
・2025.07.15 Rapportage AI & Algoritmes Nederland (RAN) - juli 2025
| Rapportage AI & Algoritmes Nederland (RAN) - juli 2025 | AI およびアルゴリズムに関するオランダ報告書(RAN) - 2025年7月 |
| De Rapportage AI & Algoritmes Nederland (RAN) gaat in op trends, risico’s en beheersing van de inzet van artificiële intelligentie (AI) en algoritmes. In deze vijfde editie gaan we in op overkoepelende ontwikkelingen, grondrechten en publieke waarden, beleid en regelgeving. Ook hebben we aandacht voor het belang van algoritmeregistratie. | AI およびアルゴリズムに関するオランダ報告書(RAN)は、人工知能(AI)およびアルゴリズムの利用に関する動向、リスク、および管理について検証しています。第5版となる今回は、包括的な動向、基本的権利および公共の価値、政策、規制に焦点を当てています。また、アルゴリズムの登録の重要性についても考察しています。 |
| AI en emotieherkenning | AIと感情認識 |
| Het thema van deze RAN is AI en emotieherkenning. Naast een theoretische studie en gesprekken met experts bekeek de AP de inzet van emotieherkenning met AI door klantenservices, in wearables (zoals een smartwatch) en in taalmodellen. | 今回のRANのテーマはAIと感情認識です。理論的な研究と専門家との議論に加え、APは顧客サービス、ウェアラブルデバイス(スマートウォッチなど)、言語モデルにおけるAIを活用した感情認識の活用状況を調査しました。 |
| De conclusie: emoties herkennen met AI is dubieus en risicovol. Emotieherkenning met AI werkt namelijk op basis van omstreden aannames over emoties en de meetbaarheid daarvan. Daarmee levert emotieherkenning risico’s en ethische vragen op. | 結論としては、AI による感情認識は疑わしく、リスクが高いと結論づけました。AI による感情認識は、感情とその測定可能性に関する議論の分かれる仮定に基づいています。つまり、感情認識にはリスクが伴い、倫理的な問題も生じます。 |
| Brede nationale AI-strategie noodzakelijk | 広範な国家 AI 戦略が必要 |
| Naast de themastudie AI en emotieherkenning pleit de AP in de vijfde editie van de Rapportage AI & Algoritmes Nederland voor een specifieke, gedegen en democratisch onderbouwde overkoepelende nationale AI-strategie. Dit is essentieel om de kansen van algoritmes en AI te benutten én de risico’s in de hand te houden. | AI と感情認識に関するテーマ別調査に加え、AP は、第 5 版「オランダにおける AI およびアルゴリズムに関する報告書」において、具体的かつ徹底した、民主的な国家 AI 戦略の策定を求めています。これは、アルゴリズムと AI がもたらす機会を活用しつつ、リスクを管理するために不可欠です。 |
| De ontwikkelingen gaan heel erg snel en roepen nieuwe en fundamentele verdelingsvraagstukken in bijvoorbeeld woning- en energiemarkt op, waarbij grondrechten en publieke belangen nu onderbelicht blijven. Betrouwbare inzet van algoritmes en AI vraagt om aandacht voor bescherming, veiligheid en transparantie. | 開発は急速に進んでおり、現在、基本的権利や公共の利益が軽視されている住宅市場やエネルギー市場などの分野で、新たな根本的な分配の問題が浮上しています。アルゴリズムと AI を確実に活用するには、保護、セキュリティ、透明性に注意を払う必要があります。 |
| De strategie moet gericht zijn op de volle breedte van toepassingen van AI en algoritmes. Investeringen in AI-technologie, innovatie, het AI-ecosysteem en educatie zoals AI-geletterdheid zijn daarbij essentieel. De AP adviseert om bij investeringen in innovatie een vastgesteld percentage te reserveren voor interne controle, externe controle en toezicht. | 戦略は、AIとアルゴリズムの応用範囲全体に焦点を当てる必要があります。AI技術、イノベーション、AIエコシステム、教育(AIリテラシーなど)への投資は、この点で不可欠です。APは、イノベーション投資の一定割合を内部管理、外部管理、監督に充てるよう推奨しています。 |
・[PDF]
目次...
| Kernboodschappen | 主なメッセージ |
| 1. Overkoepelende ontwikkelingen | 1. 全体的な動向 |
| 2. Beleid en regelgeving | 2. 政策および規制 |
| 3. AI en emotieherkenning | 3. AI と感情認識 |
| 4. Emotieherkenning in de praktijk | 4. 感情認識の実践 |
| Bijlage Aan de slag met algoritmeregistratie | 附属書アルゴリズム登録の開始 |
| Toelichting rapportage | 報告書に関する説明 |
主なメッセージ
| Kernboodschappen | 主なメッセージ |
| 1. De ontwikkeling en inzet van AIsystemen om emoties te herkennen groeit, terwijl de werking wordt betwijfeld en de inzet risicovol is. | 1. 感情を認識する AI システムの開発と利用は拡大している一方、その有効性は疑問視されており、その利用にはリスクが伴います。 |
| Van steeds meer AI-systemen wordt geclaimd dat ze emotionele toestanden, zoals blijdschap, boosheid of stress, kunnen herkennen op basis van biometrie. Denk hierbij aan het herkennen van emoties voor inzicht in koopgedrag van consumenten, of voor inzicht in emoties van patiënten voor verbetering van de zorg. De systemen zijn gebouwd op omstreden aannames over emoties en indicatoren van emotionele toestanden en de meetbaarheid daarvan. Daarom is het twijfelachtig of ze ook echt emoties kunnen meten. Als de systemen toch worden ingezet, kan dit grond rechten en publieke waarden schenden. Denk aan de inperking van vrijheid en menselijke autonomie, discriminatie en privacyschendingen. Lees in hoofdstuk 3 meer over AI en emotieherkenning. | ますます多くの AI システムが、生体認証に基づいて、幸福、怒り、ストレスなどの感情状態を認識できると主張しています。その例としては、消費者の購買行動に関する洞察を得るために感情を認識したり、ケアの改善のために患者の感情を把握したりすることが挙げられます。これらのシステムは、感情や感情状態の指標、およびそれらの測定可能性に関する論争の的となっている仮定に基づいています。したがって、これらのシステムが実際に感情を測定できるかどうかは疑問です。こうしたシステムがとにかく使用された場合、基本的権利や公共の価値が侵害されるおそれがあります。自由や人間の自律性の制限、差別、プライバシーの侵害などが考えられます。AI と感情認識について詳しくは、第 3 章をご覧ください。 |
| 2. De AP heeft toepassingen van emotieherkenning voor klantenservices, in wearables en in taalmodellen onder de loep genomen; het brede palet aan toepassingen leidt in bepaalde gevallen tot risico’s die aandacht vragen van ontwikkelaars, gebruikers, toezichthouders en beleidsmakers. | 2. AP は、顧客サービス、ウェアラブル、言語モデルにおける感情認識の応用について検討しました。その応用範囲は広く、場合によっては開発者、ユーザー、規制当局、政策立案者が注意すべきリスクも生じます。 |
| Uit de verdieping blijkt bijvoorbeeld dat niet altijd duidelijk is hoe emoties en stress worden herkend of hoe effectief het is. Ondanks de groei van deze toepassingen, weten mensen toch niet altijd dat emotieherkenning wordt ingezet, of op basis van welke data. Ontwikkelaars en gebruikers moeten zich bewust zijn van de risico’s die elke specifieke toepassing met zich meebrengt. Verschillende toepassingen vallen straks onder specifieke regelgeving. Maar het is een andere vraag of het wenselijk is om deze systemen in te zetten. In het onderwijs en op de werkplek is AI voor emotieherkenning sinds februari 2025 verboden, maar waar het toegestaan is onder specifieke voorwaarden zal het uiteindelijk een politieke afweging zijn om te bepalen in welke gevallen en mate de inzet van deze systemen wenselijk zijn. Lees in hoofdstuk 4 meer over emotieherkenning in de praktijk. | 例えば、詳細な調査によると、感情やストレスがどのように認識されるのか、その有効性は必ずしも明確ではないことが明らかになっています。こうしたアプリケーションが普及しているにもかかわらず、感情認識が使用されていること、あるいはその基礎となるデータについて、人々は必ずしも認識しているわけではありません。開発者やユーザーは、それぞれのアプリケーションに伴うリスクを認識しておく必要があります。さまざまなアプリケーションは、まもなく具体的な規制の対象となるでしょう。しかし、これらのシステムを使用することが望ましいかどうかは別の問題です。感情認識AIは2025年2月から教育と職場での使用が禁止されていますが、特定の条件下で許可される場合、これらのシステムの使用がどの程度望ましいかは、最終的に政治的な判断に委ねられます。感情認識の実践に関する詳細は第4章をご覧ください。 |
| 3. De AP roept organisaties op om zich kritisch te verhouden tot de inzet van toepassingen van emotieherkenning. | 3. APは、組織が感情認識アプリケーションの使用に対して批判的な立場を取るよう呼びかけています。 |
| Organisaties moeten zich bewust zijn van de beperkingen van emotieherkenning en een bewuste afweging maken of de inzet ervan passend en proportioneel is. Als deze systemen worden ingezet moeten organisaties transparant zijn over het gebruik richting degene wiens emotie wordt geanalyseerd. Bovendien is toestemming van de personen die geanalyseerd worden een belangrijke eerste stap voor organisaties om de systemen verantwoord in te zetten. In hoofdstuk 4 worden drie praktijk voorbeelden van emotieherkenning besproken. Maar ook voor andere toepassingen is werken aan een verantwoorde, bewuste en transparante inzet belangrijk. | 組織は、感情認識の限界を認識し、その使用が適切かつ均衡のとれたものであるかどうかを慎重に検討しなければなりません。これらのシステムを使用する場合、組織は、感情が分析される対象者に対してその使用について透明性を確保しなければなりません。さらに、分析の対象者から同意を得ることは、組織がシステムを責任を持って使用するための重要な第一歩です。第 4 章では、感情認識の 3 つの実用例について考察しています。しかし、他のアプリケーションにおいても、責任ある、意識的かつ透明性の高い利用に向けて取り組むことが重要です。 |
| 4. In Nederland wordt met toewijding gewerkt aan betrouwbare AI, maar als samenleving moeten we een tandje bijschakelen om de kansen van AI op een verantwoorde manier te kunnen benutten. | 4. オランダでは、信頼性の高い AI の開発に精力的に取り組んでいますが、社会として、AI がもたらす機会を責任ある形で活用できるよう、取り組みを強化する必要があります。 |
| Betrouwbare inzet van algoritmes en AI is mogelijk en vraagt om aandacht voor bescherming, veiligheid en transparantie. Dit betekent dat we als samenleving lessen moeten leren uit incidenten. Gezien de snelheid en omvang waarmee Nederlandse organisaties AI en algoritmes adopteren lijkt het waarschijnlijk dat veel incidenten niet opgemerkt worden, niet gemeld worden en dat lessen daaruit ook niet gedeeld worden. Dat incidenten voorkomen is onvermijdelijk in deze fase van de maatschappelijke transitie. Omgaan met incidenten en het leren van de aard, oorzaak en schade is essentieel om organisaties te laten groeien in verantwoordelijke omgang. Toezichthouders kunnen samen met wetgevers en het toezichtsveld werken aan een passende omgeving waarbinnen deze kennis gedeeld kan worden zonder bedrijfsgeheimen te onthullen. | アルゴリズムと AI の信頼性の高い利用は可能であり、保護、セキュリティ、透明性に留意する必要があります。つまり、社会としてインシデントから教訓を学ばなければならないということです。オランダの組織が AI やアルゴリズムを急速かつ大規模に導入している現状では、多くのインシデントが気づかれず、報告もされないまま、教訓も共有されないままになっている可能性が高いと思われます。社会が移行期にある現段階では、インシデントは避けられないものです。インシデントに対処し、その性質、原因、被害について学ぶことは、組織が責任ある利用を推進していく上で不可欠です。監督当局は、立法機関や監督分野と協力し、企業秘密を漏らすことなくこの知識を共有できる適切な環境を構築することができます。 |
| 5. Het is inmiddels voor iedere organisatie mogelijk om, met behulp van het steeds rijkere pakket aan hulpmiddelen, doelgericht te werken aan AI-volwassenheid. | 5.ますます充実するツールセットの助けを借りて、あらゆる組織は AI の成熟に向けて目的意識を持って取り組むことができるようになりました。 |
| Van algoritmeregistratie, bias-toetsing en het inrichten van kwaliteitsmanagementsystemen tot het uitvoeren van grondrechtenbeoordelingen en het transparant maken van de inzet - om daar te komen moeten organisaties investeren in mensen en middelen en zijn meetbare en concrete organisatiedoelen nodig. Bijvoorbeeld een ambitie om jaarlijks de meest kritische algoritmische processen en AI-systemen te auditeren op belangrijkere criteria zoals organisatorische grip, robuustheid, bias en fairness, cyberveiligheid en willekeur. Dit is een uitdaging voor organisaties, waarbij een beroep wordt gedaan op de verantwoordelijkheid en eigen inzicht van een organisatie. Volwassen organisaties zijn transparant over de inzet, hebben robuuste systemen en processen voor beheersing, en nemen interne controle, externe controle en toezicht serieus. | アルゴリズムの登録、バイアステスト、品質管理システムの構築から、基本的権利のアセスメントの実施、展開の透明化に至るまで、その目標を達成するには、組織は人材とリソースに投資し、測定可能で具体的な組織目標を設定する必要があります。例えば、組織の管理、堅牢性、バイアスと公平性、サイバーセキュリティ、恣意性などの重要な規準に基づいて、最も重要なアルゴリズムプロセスと AI システムを毎年監査するという目標を設定することです。これは、組織にとって責任と洞察力を必要とする課題です。成熟した組織は、その取り組みを透明化し、堅牢な管理システムとプロセスを整備し、内部統制、外部統制、監督を真剣に実施しています。 |
| 6. Vormgeving van menselijke toetsing en het tegengaan van discriminatie blijft een belangrijke uitdaging. | 6. 人間によるレビューの設計と差別との闘いは、依然として重要な課題です。 |
| In Nederland zijn we ons zeer bewust van het feit dat zowel personen als algoritmes kunnen discrimineren. Dit laat duidelijk het belang zien om zowel de menselijke als algoritmische bias in processen terug te dringen. De wisselwerking tussen mensen en algoritmes is hiervoor van belang en moet goed vormgegeven zijn om discriminatie en bias zoveel mogelijk te voorkomen. De Tweede Kamer heeft onlangs een motie aangenomen, gericht op het ‘blind’ beoordelen van burgers als uitgangspunt. Bijvoorbeeld bij fraudedetectie. Vanuit het perspectief van de AP als toezichthouder is het noodzakelijk om ook naar de besluitvormingsketen als geheel te kijken, aselecte steekproeven toe te voegen, de uitlegbaarheid en het kunnen aanvechten van de risicoselectie te waarborgen. | オランダでは、人間もアルゴリズムも差別を行う可能性があることを強く認識しています。これは、プロセスにおける人間とアルゴリズムの両方のバイアスを削減することの重要性を明確に示しています。この点では、人間とアルゴリズムの相互作用が重要であり、差別やバイアスを可能な限り防止するよう、その相互作用を適切に設計する必要があります。下院は最近、出発点として、市民に対する「ブラインド」評価を目指す動議を採択しました。例えば、不正の検知などです。監督機関としての AP の観点からは、意思決定の連鎖全体を検証し、ランダムなサンプルを追加し、リスクの選択の説明可能性と争点化を確保することも必要です。 |
| 7. AI speelt een belangrijke rol in geopolitieke ontwikkelingen. | 7. AI は地政学的動向において重要な役割を果たしています。 |
| Succesvolle inzet op AI wordt gezien als essentieel voor economische ontwikkeling. Het bevorderen van innovatie en het AI-ecosysteem is in rap tempo hoog op de politieke agenda beland. Waar twijfels zijn over het beperken van innovatie door regels, kijkt men al snel naar deregulering. Maar om te beschermen tegen uitwassen wordt tegelijk ook nieuwe regelgeving ontwikkeld of geïmplementeerd. Ook verschilt het perspectief op de juiste balans tussen innovatie en bescherming per land en regio. Daarnaast wordt AI in groeiende mate onderdeel van nationale strategieën, variërend van de zorg tot defensie. Hierbij speelt de afhankelijkheid van grote spelers en de groeiende wens voor strategische autonomie een steeds grotere rol. Ook Europees wordt aandacht besteedt aan dit onderwerp, bijvoorbeeld middels de AI-strategie van de Europese Commissie met bijbehorende financieringsambities. | AI の展開の成功は、経済発展に不可欠であると見なされています。イノベーションと AI エコシステムの促進は、政治の優先課題として急速に浮上しています。規則によってイノベーションが制限されるおそれがある場合には、規制緩和が検討されることが多い。しかし、過度な規制を防ぐため、新たな規制も策定・実施されています。イノベーションと保護の適切なバランスに関する見解も、国や地域によって異なります。さらに、AI は、医療から防衛に至るまで、国家戦略の一部としてますます重要になってきています。この点では、主要プレーヤーへの依存と戦略的自立への欲求の高まりが、ますます重要な役割を果たしています。このトピックは、欧州委員会による AI 戦略や関連する資金調達目標など、欧州レベルでも注目されています。 |
| 8. Het is zaak tempo te houden of te versnellen bij het ontwikkelen en implementeren van beleid voor AI. | 8. AI に関する政策の策定と実施のペースを維持、あるいは加速することが重要です。 |
| Om de kansen van AI te benutten en de risico’s te beheersen blijft een nationale overkoepelende AI-strategie noodzakelijk. Het is belangrijk om algoritmeregistratie voor (semi-)publieke organisaties te verplichten wanneer deze impactvolle algoritmes of AI inzetten. Ook beveelt de AP aan om periodieke audits te verplichten voor deze algoritmes en AI. Om verantwoorde innovatie in goede banen te leiden moeten er voldoende middelen voor AI-toezicht in Nederland zijn bij alle betrokken toezichthouders en inspecties. Om toezicht effectief gezamenlijk te organiseren en mee te laten bewegen met de snelle technologische ontwikkelingen, zijn investeringen in samenwerkingsverbanden onmisbaar. De AP adviseert om bij publieke investeringen in innovatie een vastgesteld percentage te reserveren voor interne controle, externe controle en toezicht. Ook bij private investeringen is het aan te bevelen om een deel te reserveren voor risicomanagement inclusief interne en externe controle. Het goed functioneren van deze lagen is essentieel voor versnelling van innovatie en inzet. | AI の機会を活用し、リスクを管理するためには、国家レベルの包括的な AI 戦略が依然として必要です。影響力の大きいアルゴリズムや AI を使用する場合、公的機関および半公的機関に対してアルゴリズムの登録を義務付けることが重要です。AP はまた、これらのアルゴリズムおよび AI の定期的な監査を義務付けることを推奨しています。責任あるイノベーションを正しい方向に導くためには、オランダの関連するすべての監督当局および検査機関が、AI の監督に必要な十分なリソースを確保しなければなりません。監督を効果的に組織し、急速な技術開発に対応し続けるためには、パートナーシップへの投資が不可欠です。AP は、イノベーションに対する公的投資の一定割合を、内部統制、外部統制、監督のために確保することを推奨しています。また、民間投資の一部も、内部統制および外部統制を含むリスクマネジメントのために確保することが望ましいです。これらの層の適切な機能は、イノベーションと展開の加速に不可欠です。 |
| 9. De AI-verordening wordt steeds concreter, waarbij standaarden een belangrijk instrument zijn om grip op AI te krijgen en in de toekomst te voldoen aan de AI-verordening. | 9. AI 規制はますます具体化しており、標準は AI を制御し、将来 AI 規制を遵守するための重要なツールとなっています。 |
| Ruim een jaar na de inwerkingtreding van de AI-verordening zien we verdere verduidelijking en concretisering. De richtsnoeren van de Europese Commissie over verboden AI-systemen en de definitie van AI-systemen geven een eerste inzicht en uitleg, maar roepen ook veel vervolgvragen op. Verdere concretisering zal volgen, waarbij ook de ontwikkeling van standaarden duidelijkheid zal bieden over de manier waarop organisaties kunnen voldoen aan de eisen van de AI-verordening. Niet enkel generieke, maar ook sectorspecifieke doorvertalingen van de AI-verordening moeten leiden tot guidance en houvast. | AI 規制が施行されてから 1 年以上が経過し、その内容の一層の明確化と具体化が進んでいます。欧州委員会が発表した、禁止される AI システムに関するガイドラインおよび AI システムの定義は、最初の洞察と説明を提供していますが、多くのフォローアップの疑問も生じています。今後、AI 規制の要件を組織がどのように遵守できるかを明確にする標準の開発が進められ、さらに具体化が進むでしょう。AI 規制の一般的な解釈だけでなく、セクター別の解釈も、ガイダンスと確実性につながるはずです。 |
| 10. Algoritmes opnemen in een register is een goed begin om de risico’s die met algoritme-inzet gepaard gaan te beheersen. Een algoritmeregister bevat informatie over de inzet van algoritmes. | 10. アルゴリズムを登録簿に登録することは、アルゴリズムの使用に伴うリスクを管理するための良い出発点となります。アルゴリズム登録簿には、アルゴリズムの使用に関する情報が記載されます。 |
| In grote lijnen heeft algoritmeregistratie twee overkoepelende doelen. Doel 1: Het bevorderen van interne controle op algoritmes (governance). Doel 2: Het bevorderen van externe controle op algoritmes (transparantie). De Nederlandse overheid werkt aan een wettelijk kader voor het Algoritmeregister. Het wettelijk kader moet zorgen voor duidelijkheid over het verplicht registreren van algoritmes. Ook zonder verplichting is het Algoritmeregister nu al een waardevolle en praktische tool voor het bieden van transparantie en het bevorderen van controle op overheidsalgoritmes. Nog lang niet alle organisaties benutten het Algoritmeregister; de AP moedigt overheidsorganisaties aan om hier zoveel mogelijk gebruik van te maken. In de bijlage ‘Aan de slag met algoritmeregistratie’ geeft de AP acht concrete handvatten om aan de slag te gaan met algoritmeregistratie. | 大まかに言えば、アルゴリズムの登録には 2 つの包括的な目的があります。目的 1:アルゴリズムの内部統制(ガバナンス)の促進。目的 2:アルゴリズムの外部統制(透明性)の促進。オランダ政府は、アルゴリズム登録簿に関する法的枠組みの策定に取り組んでいます。この法的枠組みは、アルゴリズムの登録義務について明確にするものであるべきである。この義務が課せられていなくても、アルゴリズム登録簿は、透明性を確保し、政府アルゴリズムの管理を促進するための、価値ある実用的なツールである。まだすべての組織がアルゴリズム登録簿を利用しているわけではないが、AP は政府機関に対して、この登録簿を可能な限り活用するよう奨励している。附属書「アルゴリズム登録の開始」では、アルゴリズム登録を開始するための 8 つの具体的なツールを紹介している。 |
・2025.07.15 AP: Emoties herkennen met AI ‘dubieus en risicovol’
| AP: Emoties herkennen met AI ‘dubieus en risicovol’ | AP:AI による感情認識は「問題があり、リスクが高い」 |
| Steeds vaker gebruiken organisaties artificiële intelligentie (AI) om emoties bij mensen te herkennen. Emotieherkenning gaat echter uit van omstreden aannames over emoties en de meetbaarheid daarvan. Als het toch wordt ingezet, brengt dit risico’s en ethische vragen met zich mee. Dat concludeert de Autoriteit Persoonsgegevens (AP) in de nieuwe Rapportage AI & Algoritmes Nederland (RAN). | 組織は、人工知能(AI)を用いて人間の感情を認識する取り組みをますます進めています。しかし、感情認識は、感情とその測定可能性に関する議論の分かれる仮定に基づいています。感情認識を利用する場合、リスクや倫理的な問題が生じます。これは、オランダデータ保護機関(AP)が、オランダにおける AI およびアルゴリズムに関する新しい報告書(RAN)で示した結論です。 |
Je stem die wordt gebruikt om ‘je emotionele toestand’ te analyseren tijdens een gesprek met een klantenservice. Je smartwatch die meet of je stress hebt. Of een chatbot die je emoties herkent en daardoor empathischer kan reageren. Steeds meer organisaties gebruiken emotieherkenning met AI, omdat ze daarmee producten en diensten denken te kunnen verbeteren. Bijvoorbeeld bij marketing of klantcontact, maar ook in de openbare ruimte en de gezondheidszorg. |
顧客サービスとの会話の中で、あなたの「感情の状態」を分析するためにあなたの声が使用される。スマートウォッチが、あなたがストレスを感じているかどうかを測定する。あるいは、あなたの感情を認識し、それによりより共感的な対応ができるチャットボット。AI による感情認識は、製品やサービスの改善に役立つと信じ、採用する組織が増えています。その例としては、マーケティングや顧客対応だけでなく、公共スペースや医療分野も挙げられます。 |
| AP: ‘Zeer voorzichtig omgaan met dit soort toepassingen’ | AP:「この種のアプリケーションには細心の注意を払うべき」 |
| De AP bekeek de inzet van emotieherkenning met AI door klantenservices, in wearables (zoals een smartwatch) en in taalmodellen. Hieruit bleek dat niet altijd duidelijk is hoe AI-systemen emoties herkennen, en of de uitkomsten betrouwbaar zijn. Ondanks de groei van deze toepassingen, weten mensen ook niet altijd dat emotieherkenning wordt ingezet. En op basis van welke data dat gebeurt. | APは、カスタマーサービス部門、ウェアラブルデバイス(スマートウォッチなど)、言語モデルにおけるAIを活用した感情認識の活用状況を調査しました。その結果、AIシステムが感情をどのように認識しているのか、その結果が信頼できるかどうかが必ずしも明確ではないことが明らかになりました。これらのアプリケーションの普及にもかかわらず、人々は感情認識が使用されていることを認識していない場合が多く、その根拠となるデータについても知らない場合がほとんどです。 |
| De AP concludeert dat er zeer voorzichtig moet worden omgegaan met dit soort toepassingen. Anders is er risico op discriminatie en inperking van de menselijke autonomie en waardigheid. | APは、このようなアプリケーションの使用には大きな注意が必要だと結論付けています。そうしないと、差別や人間の自律性および尊厳の制限というリスクが生じる。 |
| ‘Emoties raken sterk aan je menselijke autonomie. Als je emoties wilt herkennen, moet dat dan ook zeer zorgvuldig en op basis van betrouwbare technologie gebeuren. Daar is nu vaak geen sprake van,’ zegt Aleid Wolfsen, voorzitter van de AP. | 「感情は人間の自律性に大きな影響を与える。感情を認識したい場合は、信頼性の高い技術に基づいて、非常に慎重に行う必要がある。しかし、現在のところ、そうではない場合が多い」と、AP の会長である Aleid Wolfsen 氏は述べている。 |
| Emotionele uitingen zijn niet universeel én meetbaarheid is controversieel | 感情表現は普遍的ではなく、測定可能性については議論がある |
| Veel AI-systemen die zeggen emoties te kunnen herkennen, zijn gebouwd op omstreden aannames. Daardoor worden biometrische kenmerken – zoals stem, gezichtsuitdrukking of hartritme – ongenuanceerd vertaald naar emoties. | 感情を認識できると主張する AI システムの多くは、議論の余地のある仮定に基づいている。その結果、音声、顔の表情、心拍数などの生体特徴が、微妙なニュアンスを欠いた形で感情に翻訳されます。 |
| ‘Het idee dat een emotie door iedereen op dezelfde manier wordt ervaren, klopt niet. Laat staan dat die emoties meetbaar zijn aan de hand van biometrie,’ aldus Wolfsen. ‘Tussen culturen kunnen er grote verschillen zijn in hoe mensen emoties ervaren, uiten en benoemen. Ook tussen individuen kunnen verschillen bestaan, bijvoorbeeld door leeftijd. Verder kun je emoties niet altijd een-op-een vertalen. Een hoge hartslag is immers niet altijd een teken van angst, en een harde stem niet altijd een uitdrukking van woede.’ | 「感情が全員同じように体験されるという考えは誤りです。ましてや、これらの感情を生体認証で測定できるはずはありません」とウルフセンは指摘します。「文化によって、感情の体験、表現、名称に大きな違いがあります。また、年齢などの要因により、個人間にも違いがあります。さらに、感情は必ずしも 1 対 1 で表現できるものではありません。結局のところ、心拍数が高いからといって必ずしも恐怖を感じているとは限らず、大声で話すからといって必ずしも怒っているとは限らないのです」と |
| Ethisch vraagstuk | 倫理的問題 |
| Verschillende toepassingen van stemherkenning vallen straks onder specifieke AI-regelgeving en moeten nu al voldoen aan privacywetgeving, zoals de Algemene verordening gegevensbescherming (AVG). In het onderwijs en op de werkvloer is de inzet van AI-systemen voor emotieherkenning al verboden volgens de Europese AI-verordening. | 音声認識のさまざまな用途は、まもなく AI に関する特定の規制の対象となり、一般データ保護規則(GDPR)などのプライバシー関連法規をすでに遵守しなければなりません。教育や職場において、AIシステムによる感情認識の使用は、欧州のAI規制により既に禁止されています。 |
| Of deze technologie überhaupt wenselijk is, is een andere vraag. ‘Het is een ethisch vraagstuk of je als maatschappij het herkennen van emoties met AI toelaatbaar vindt,’ zegt Wolfsen. ‘Daarvoor is een maatschappelijke en democratische afweging nodig: of je deze systemen wilt gebruiken en zo ja, in welke vorm en waarvoor.’ | この技術が望ましいかどうかは別の問題です。「社会がAIによる感情認識の使用を適切と考えるかどうかは、倫理的な問題です」とウルフセンは述べています。「これには社会的で民主的な議論が必要です:これらのシステムを使用するかどうか、使用する場合にはどのような形態で、何のために使用するかを決める必要があります。」 |
● まるちゃんの情報セキュリティ気まぐれ日記
・2025.02.27 オランダ データ保護庁 友情とメンタルヘルスのためのAIチャットbotアプリは時には不適切で有害 - AI及びアルゴリズム・リスクに関する報告書 (2025.02.12)
・2025.02.07 オランダ データ保護庁 AIリテラシーを持って始めよう (2025.01.30)
・2024.12.19 オランダ データ保護局 意見募集 社会的スコアリングのためのAIシステム + 操作および搾取的AIシステムに関する意見募集の概要と次のステップ
・2024.11.08 オランダ データ保護局 意見募集 職場や教育における感情認識のための特定のAIシステムの禁止 (2024.10.31)
・2024.10.30 オランダ 会計検査院 政府はAIのリスクアセスメントをほとんど実施していない...
・2024.10.18 オランダ AI利用ガイド (2024.10.16)
・2024.09.29 オランダ データ保護局 意見募集 「操作的欺瞞的、搾取的なAIシステム」
・2024.09.05 オランダ データ保護局 顔認識のための違法なデータ収集でClearviewに3,050万ユーロ(48.5億円)
・2024.08.28 オランダ データ保護局 ドライバーデータの米国への転送を理由にUberに2億9000万ユーロ(467億円)の罰金
・2024.08.12 オランダ データ保護局が注意喚起:AIチャットボットの使用はデータ漏洩につながる可能性がある
・2024.08.11 オランダ AI影響アセスメント (2023.03.02)
・2024.08.05 欧州AI法が施行された... (2024.08.01)

Comments