TikTok 米国で親会社が児童プライバシー法違反で提訴され、欧州でデジタルサービス法遵守のためTikTok LiteリワードプログラムのEUからの恒久的撤退を約束
こんにちは、丸山満彦です。
米国連邦司法省 (DOJ) と連邦取引委員会 (FTC) が、TikTokの親会社(ByteDance)を児童プライバシー法違反で提訴していますね(2024.08.02)。
一方、欧州では、デジタルサービス法によりTikTok LiteリワードプログラムがEUから恒久的に撤退することになっていますね... (2024.08.05)
● U.S. Department of Justice; DOJ
Justice Department Sues TikTok and Parent Company ByteDance for Widespread Violations of Children’s Privacy Laws | 司法省、TikTokと親会社ByteDanceを児童プライバシー法の広範な違反で提訴 |
The Justice Department, together with the Federal Trade Commission (FTC), today filed a civil lawsuit in the U.S. District Court for the Central District of California against TikTok Inc., ByteDance Ltd., and their affiliates (together, TikTok) for violations of the Children’s Online Privacy Protection Act and its implementing regulations (COPPA) in connection with the popular TikTok app. | 司法省は本日、米連邦取引委員会(FTC)と共同で、人気アプリ「TikTok」に関連して児童オンラインプライバシー保護法(Children's Online Privacy Protection Act)およびその施行規則(COPPA)に違反したとして、TikTok Inc.、ByteDance Ltd.、およびその関連会社(以下、TikTok)をカリフォルニア州中部地区連邦地方裁判所に民事提訴した。 |
COPPA prohibits website operators from knowingly collecting, using, or disclosing personal information from children under the age of 13, unless they provide notice to and obtain consent from those children’s parents. It also requires website operators to delete personal information collected from children at their parents’ request. In 2019, the government sued TikTok’s predecessor, Musical.ly, for COPPA violations, and since then the defendants have been subject to a court order requiring them to undertake specific measures to comply with COPPA. | COPPAは、ウェブサイト運営者が13歳未満の児童の個人情報を故意に収集、使用、開示することを禁じている。また、ウェブサイト運営者は、保護者からの要請があれば、子どもから収集した個人情報を削除することも義務付けている。2019年、政府はTikTokの前身であるMusical.lyをCOPPA違反で提訴し、それ以来、被告らはCOPPAを遵守するための具体的な措置を講じることを求める裁判所命令を受けている。 |
According to the complaint, from 2019 to the present, TikTok knowingly permitted children to create regular TikTok accounts and to create, view, and share short-form videos and messages with adults and others on the regular TikTok platform. The defendants collected and retained a wide variety of personal information from these children without notifying or obtaining consent from their parents. Even for accounts that were created in “Kids Mode” (a pared-back version of TikTok intended for children under 13), the defendants unlawfully collected and retained children’s email addresses and other types of personal information. Further, when parents discovered their children’s accounts and asked the defendants to delete the accounts and information in them, the defendants frequently failed to honor those requests. The defendants also had deficient and ineffectual internal policies and processes for identifying and deleting TikTok accounts created by children. | 訴状によると、2019年から現在に至るまで、TikTokは故意に子どもたちが通常のTikTokアカウントを作成し、通常のTikTokプラットフォーム上で短編動画やメッセージを作成、閲覧、大人などと共有することを許可していた。被告らは、保護者に通知したり同意を得たりすることなく、これらの児童から様々な個人情報を収集し、保持していた。キッズモード」(13歳未満の児童を対象としたTikTokの縮小版)で作成されたアカウントであっても、被告らは児童の電子メールアドレスやその他の個人情報を不法に収集・保持した。さらに、親が子供のアカウントを発見し、被告にアカウントとその中の情報を削除するよう求めたが、被告は頻繁にその要求に応じなかった。 また、被告らは、子供が作成したTikTokアカウントを識別し、削除するための内部方針およびプロセスにも不備があり、実効性がなかった。 |
The defendants engaged in the above-described conduct despite being subject to a court order barring them from violating COPPA and imposing measures designed to ensure their compliance. TikTok is one of the most popular social media platforms in the world. The defendants’ COPPA violations have resulted in millions of children under 13 using the regular TikTok app, subjecting them to extensive data collection and allowing them to interact with adult users and access adult content. The complaint seeks civil penalties and injunctive relief. | 被告らは、COPPA違反を禁じる裁判所命令を受け、コンプライアンスを確保するための措置を課せられているにもかかわらず、上記の行為を行った。TikTokは世界で最も人気のあるソーシャルメディアプラットフォームの一つである。被告らのCOPPA違反により、数百万人の13歳未満の児童が通常のTikTokアプリを使用し、大規模なデータ収集の対象者となり、成人ユーザーとの交流や成人向けコンテンツへのアクセスを許している。訴状は民事罰と差し止めによる救済を求めている。 |
“The Department is deeply concerned that TikTok has continued to collect and retain children’s personal information despite a court order barring such conduct,” said Acting Associate Attorney General Benjamin C. Mizer. “With this action, the Department seeks to ensure that TikTok honors its obligation to protect children’s privacy rights and parents’ efforts to protect their children.” | 「司法省は、TikTokが裁判所命令によりそのような行為が禁止されているにもかかわらず、児童の個人情報を収集・保持し続けていることを深く憂慮している。「今回の措置により、司法省はTikTokが子どものプライバシーの権利と、子どもを守ろうとする保護者の努力を保護する義務を果たすよう求めている。 |
“The Justice Department is committed to upholding parents’ ability to protect their children’s privacy,” said Principal Deputy Assistant Attorney General Brian M. Boynton, head of the Justice Department’s Civil Division. “This action is necessary to prevent the defendants, who are repeat offenders and operate on a massive scale, from collecting and using young children’s private information without any parental consent or control.” | 「司法省は、子供のプライバシーを保護する親の能力を支持することを約束する」と司法省民事課の責任者であるブライアン・M・ボイントン主席副司法次官補は述べた。「この措置は、犯罪を繰り返し、大規模に運営されている被告らが、親の同意や管理なしに幼い子供たちの個人情報を収集し、使用することを防ぐために必要である。 |
“TikTok knowingly and repeatedly violated kids’ privacy, threatening the safety of millions of children across the country,” said FTC Chair Lina M. Khan. “The FTC will continue to use the full scope of its authorities to protect children online — especially as firms deploy increasingly sophisticated digital tools to surveil kids and profit from their data.” | 「FTCのリナ・M・カーン委員長は、「TikTokは故意に何度も子供のプライバシーを侵害し、全米の何百万人もの子供の安全を脅かしている。「FTCは、子供たちをオンラインで保護するため、特に企業が子供たちを監視し、そのデータから利益を得るために、ますます洗練されたデジタルツールを展開する中、その権限をフルに活用していく。 |
The United States is represented in this action by Assistant Directors Rachael L. Doud and Zachary A. Dietert, and Trial Attorneys Ben Cornfeld and Marcus P. Smith, of the Civil Division’s Consumer Protection Branch. Jonathan W. Ware, Iris Micklavzina, Sarah Choi, and Michael Sherling represent the FTC. | 米国はこの訴訟で、民事部消費者保護課のレイチェル・L・ダウド次長とザカリー・A・ディータート次長、ベン・コーンフェルド裁判弁護士とマーカス・P・スミス裁判弁護士が代表者を務めている。ジョナサン・W・ウェア、アイリス・ミクラフジナ、サラ・チョイ、マイケル・シャーリングはFTCの代表者である。 |
For more information about the Consumer Protection Branch and its enforcement efforts, visit [web]. | 消費者保護部門とその執行活動の詳細については、[web] 。 |
The claims made in a complaint are allegations that, if the case were to proceed to trial, the government must prove by a preponderance of the evidence. Certain allegations in the complaint linked to below are redacted due to defendants’ request that the government file these allegations under seal while the Court considers defendants’ intended motion to seal. The court’s ruling on defendants’ motion will determine whether and to what extent these allegations in the complaint become public. | 訴状に記載された主張は、裁判に移行する場合、政府が証拠の優位によって証明しなければならない主張である。下記リンク先の訴状にある一部の主張は、裁判所が被告の意図する封印申し立てを検討する間、政府がこれらの主張を封印して提出するよう被告が要求したため、再編集されている。被告側の申し立てに対する裁判所の判決によって、訴状中のこれらの申し立てが公開されるかどうか、またどの程度公開されるかが決定される。 |
Complaint | 訴状 |
訴状...
・[PDF] Complaint
の冒頭...
NATURE OF THE CASE | 事件の性質 |
1. Defendants operate TikTok, one of the world’s largest online social media platforms. TikTok collects, stores, and processes vast amounts of data from its users, who include millions of American children younger than 13. | 1. 被告は、世界最大級のオンライン・ソーシャルメディア・プラットフォームであるTikTokを運営している。TikTokは、13歳未満の数百万人の米国児童を含むユーザーから膨大な量のデータを収集、保存、処理している。 |
2. For years, Defendants have knowingly allowed children under 13 to create and use TikTok accounts without their parents’ knowledge or consent, have collected extensive data from those children, and have failed to comply with parents’ requests to delete their children’s accounts and personal information. | 2. 被告は長年にわたり、13歳未満の児童が親の認識や同意なしにTikTokのアカウントを作成・使用することを故意に許可し、これらの児童から膨大なデータを収集し、児童のアカウントや個人情報を削除するよう求める親の要求に応じなかった。 |
3. Defendants’ conduct violates the Children’s Online Privacy Protection Act of 1998 (“COPPA”) and Children’s Online Privacy Protection Rule (“Rule” or “COPPA Rule”), a federal statute and regulations that protect children’s privacy and safety online. It also defies an order that this Court entered in 2019 to resolve a lawsuit in which the United States alleged that TikTok Inc.’s and TikTok Ltd.’s predecessor companies similarly violated COPPA and the COPPA Rule by allowing children to create and access accounts without their parents’ knowledge or consent, collecting data from those children, and failing to comply with parents’ requests to delete their children’s accounts and information. | 3. 被告の行為は、1998年児童オンラインプライバシー保護法(「COPPA」)および児童オンラインプライバシー保護規則(「規則」または「COPPA規則」)に違反している。また、米国がTikTok Inc.およびTikTok Ltd.の前身企業も同様に、親の知識や同意なしに子どもがアカウントを作成し、アクセスすることを許可し、それらの子どもからデータを収集し、子どものアカウントや情報を削除する親の要求に応じなかったことにより、COPPAおよびCOPPA規則に違反したと主張した訴訟を解決するために2019年に本裁判所が下した命令にも反している。 |
4. To put an end to TikTok’s unlawful massive-scale invasions of children’s privacy, the United States brings this lawsuit seeking injunctive relief, civil penalties, and other relief. | 4. 米国は、TikTokによる児童のプライバシーに対する違法な大規模侵害に終止符を打つため、差止命令による救済、民事罰およびその他の救済を求めて本訴訟を提起する。 |
・2024.08.02 FTC Investigation Leads to Lawsuit Against TikTok and ByteDance for Flagrantly Violating Children’s Privacy Law
FTC Investigation Leads to Lawsuit Against TikTok and ByteDance for Flagrantly Violating Children’s Privacy Law | FTCの調査により、TikTokとByteDanceが児童プライバシー法に明白に違反したとして提訴される。 |
Complaint alleges TikTok, parent company ByteDance, and affiliates failed to comply with COPPA despite knowing that millions of children were using the platform | TikTok、親会社のByteDance、および関連会社は、何百万人もの子供たちがこのプラットフォームを利用していることを知っていたにもかかわらず、COPPAを遵守していなかったと訴えている。 |
On behalf of the Federal Trade Commission, the Department of Justice sued video-sharing platform TikTok, its parent company ByteDance, as well as its affiliated companies, with flagrantly violating a children’s privacy law—the Children’s Online Privacy Protection Act—and also alleged they infringed an existing FTC 2019 consent order against TikTok for violating COPPA. | 司法省は連邦取引委員会を代表して、動画共有プラットフォームTikTokとその親会社ByteDance、および関連会社を、児童プライバシー法(Children's Online Privacy Protection Act)に明白に違反しているとして提訴し、さらにCOPPA違反でTikTokに対する既存のFTC2019年同意命令を侵害したと主張した。 |
The complaint alleges defendants failed to comply with the COPPA requirement to notify and obtain parental consent before collecting and using personal information from children under the age of 13. | 訴状によると、被告らは13歳未満の児童から個人情報を収集・利用する前に保護者に通知し、同意を得るというCOPPAの要件を遵守しなかったと主張している。 |
“TikTok knowingly and repeatedly violated kids’ privacy, threatening the safety of millions of children across the country,” said FTC Chair Lina M. Khan. “The FTC will continue to use the full scope of its authorities to protect children online—especially as firms deploy increasingly sophisticated digital tools to surveil kids and profit from their data.” | 「FTCのリナ・M・カーン委員長は、「TikTokは故意に何度も子供のプライバシーを侵害し、全米の何百万人もの子供の安全を脅かした。「FTCは、オンライン上の子どもたちを保護するために、その権限をフルに活用していく。特に、企業が子どもたちを監視し、そのデータから利益を得るために、ますます洗練されたデジタルツールを展開していく中で。 |
“The Justice Department is committed to upholding parents’ ability to protect their children’s privacy,” said Principal Deputy Assistant Attorney General Brian Boynton. “This action is necessary to prevent the defendants, who are repeat offenders and operate on a massive scale, from collecting and using young children’s private information without any parental consent or control.” | 「司法省は、子供のプライバシーを保護する親の能力を支持することを約束する。「今回の措置は、犯罪を繰り返し、大規模に活動している被告らが、親の同意や管理なしに幼い子供たちの個人情報を収集し、利用することを防ぐために必要である。 |
ByteDance and its related companies allegedly were aware of the need to comply with the COPPA Rule and the 2019 consent order and knew about TikTok’s compliance failures that put children’s data and privacy at risk. Instead of complying, ByteDance and TikTok spent years knowingly allowing millions of children under 13 on their platform designated for users 13 years and older in violation of COPPA, according to the complaint. | ByteDanceとその関連企業は、COPPA規則と2019年の同意命令を遵守する必要性を認識しており、子どものデータとプライバシーをリスクにさらすTikTokのコンプライアンス違反を知っていたとされる。訴状によると、ByteDanceとTikTokは遵守する代わりに、COPPAに違反して13歳以上のユーザー向けに指定されたプラットフォームで、13歳未満の何百万人もの子どもたちを故意に許可して何年も過ごした。 |
As of 2020, TikTok had a policy of maintaining accounts of children that it knew were under 13 unless the child made an explicit admission of age and other rigid conditions were met, according to the complaint. TikTok human reviewers allegedly spent an average of only five to seven seconds reviewing each account to make their determination of whether the account belonged to a child. | 訴状によると、2020年の時点で、TikTokは13歳未満であることが分かっている子どものアカウントは、その子どもが明確に年齢を認め、その他の厳しい条件が満たされない限り、維持するという方針をとっていた。TikTokの人間レビュアーは、各アカウントを平均わずか5~7秒かけてレビューし、そのアカウントが児童のものかどうかを判断していたとされる。 |
The company allegedly continued to collect personal data from these underage users, including data that enabled TikTok to target advertising to them—without notifying their parents and obtaining their consent as required by the COPPA Rule. Even after it reportedly changed its policy not to require an explicit admission of age, TikTok still continued to unlawfully maintain and use personal information of children, according to the complaint. | TikTokは、COPPA規則で義務付けられている保護者への通知や同意を得ることなく、これらの未成年ユーザーから個人データを収集し続けたとされる。訴状によれば、TikTokは、明示的な年齢確認を不要とする方針に変更した後も、児童の個人情報を違法に保持・利用し続けていたという。 |
TikTok’s practices prompted its own employees to raise concerns. As alleged, after failing to delete numerous underage child accounts, one compliance employee noted, “We can get in trouble … because of COPPA.” | TikTokの慣行は、自社の従業員に懸念を抱かせた。訴状によると、多数の未成年児童のアカウントを削除できなかった後、あるコンプライアンス担当社員は「COPPAのせいで......トラブルに巻き込まれる可能性がある」と指摘した。 |
In addition, the complaint alleges that TikTok built back doors into its platform that allowed children to bypass the age gate aimed at screening children under 13. TikTok allegedly allowed children to create accounts without having to provide their age or obtain parental consent to use TikTok by using credentials from third-party services like Google and Instagram. TikTok classified such accounts as “age unknown” accounts, which grew to millions of accounts, according to the complaint. | さらに、訴状によると、TikTokは13歳未満の児童を選別するための年齢制限ゲートを迂回できるようなバックドアをプラットフォームに組み込んでいたという。TikTokは、GoogleやInstagramのようなサードパーティ・サービスの認証情報を使用することで、子どもたちが年齢を知らせたり、TikTokを利用するための保護者の同意を得たりすることなくアカウントを作成できるようにしていたとされる。訴状によると、TikTokはこのようなアカウントを「年齢不詳」のアカウントとして分類し、その数は数百万に上ったという。 |
Even when it directed children to use the TikTok Kids Mode service, a more protected version for kids, the complaint charges that TikTok collected and used their personal information in violation of COPPA. It also alleges that TikTok collected numerous categories of information and far more data than it needed, such as information about children’s activities on the app and multiple types of persistent identifiers, which it used to build profiles on children, while failing to notify parents about the full extent of its data collection and use practices. For example, TikTok shared this personal data with third parties such as Facebook and AppsFlyer to persuade existing Kids Mode users to use the service more after their use had declined or ceased, through a practice TikTok called “retargeting less active users,” according to the complaint. | TikTokキッズモード(子供向けにより保護されたバージョン)サービスを使用するよう子供たちに指示した場合でも、TikTokはCOPPAに違反して子供たちの個人情報を収集し、使用したと訴えている。また、TikTokは、アプリ上での子どもの行動に関する情報や、子どものプロファイルを構築するために使用した複数の種類の永続的識別子のような、多数のカテゴリーの情報や必要をはるかに超えるデータを収集し、その一方で、データ収集と使用方法の全範囲について保護者に通知しなかったとしている。例えば、TikTokはこの個人データをFacebookやAppsFlyerなどのサードパーティと共有し、TikTokが「アクティブ度の低いユーザーへのリターゲティング」と呼ぶ行為を通じて、既存のキッズモードユーザーの利用が減少または停止した後に、サービスをもっと利用するよう説得していた。 |
TikTok also allegedly made it difficult for parents to request that their child’s accounts be deleted. When parents managed to navigate the multiple steps required to submit a deletion request, TikTok often failed to comply with those requests. TikTok also imposed unnecessary and duplicative hurdles for parents seeking to have their children’s data deleted. That practice allegedly continued even after the executive responsible for child safety issues told TikTok’s then-CEO, “we already have all the info that’s needed” to delete a child’s data when a parent requests it, yet TikTok would not delete it unless the parent fills out a second, duplicative form. If the parent did not do that, the executive allegedly added, “then we have actual knowledge of underage user[s] and took no action!” | TikTokはまた、親が子供のアカウントを削除するよう要求することを困難にしていたとされる。親が削除依頼を提出するのに必要な複数のステップを何とかこなしたとしても、TikTokはしばしばその依頼に応じなかった。TikTokはまた、子どものデータ削除を求める保護者に対し、不必要で重複したハードルを課していた。このような慣行は、子どもの安全問題を担当する幹部がTikTokの当時の最高経営責任者(CEO)に、親が子どものデータ削除を要求した際に「必要な情報はすでにすべて揃っている」と伝えた後も続いたとされるが、TikTokは親が二重のフォームに記入しない限りデータを削除しない。親がそうしなかった場合、この幹部はこう付け加えたという。"未成年のユーザーを実際に知っていながら、何の対処もしなかったのだ!"と。 |
The complaint also claimed that TikTok began violating the terms of the 2019 FTC order shortly after it went into effect. Two TikTok entities (previously Musical.ly and Musical.ly Inc., which ByteDance acquired in 2017 and renamed) agreed to the terms of the order to settle allegations that they violated the COPPA Rule by unlawfully collecting personal information from children under the age of 13. | 訴状はまた、TikTokが2019年のFTC命令の発効直後にその条件に違反し始めたと主張している。TikTokの事業体2社(以前はMusical.lyとMusical.ly Inc.で、ByteDanceが2017年に買収し社名を変更)は、13歳未満の子どもから個人情報を違法に収集し、COPPA規則に違反したとの疑惑を解決するため、命令の条件に合意した。 |
Additionally, the complaint alleges that TikTok failed to: | さらに、訴状ではTikTokが以下を怠ったとしている: |
・notify parents about all of the personal data they were collecting from children; | ・児童から収集するすべての個人データを保護者に通知しなかった; |
・obtain parental consent for the collection and use of that data; | ・そのデータの収集と使用について保護者の同意を得ること; |
・limit the collection, use, and disclosure of children’s personal information; and | ・児童の個人情報の収集、使用、開示を制限する。 |
・delete children’s personal information when requested by parents or when it was no longer needed. | ・保護者から要求があった場合、あるいは必要がなくなった場合には、子どもの個人情報を削除すること。 |
The complaint asks the court to impose civil penalties against ByteDance and TikTok and to enter a permanent injunction against them to prevent future violations of COPPA. The FTC Act allows civil penalties up to $51,744 per violation, per day. | 訴状では、ByteDance社とTikTok社に対して民事罰則を科すこと、および将来的なCOPPA違反を防止するために恒久的な差し止め命令を下すことを裁判所に求めている。FTC法では、違反1件につき1日最高5万1744ドルの民事罰が認められている。 |
The Commission voted 3-0-2 to refer the complaint to the Department of Justice. Commissioners Melissa Holyoak and Andrew N. Ferguson were recused from participating. The complaint was filed in the U.S. District Court for the Central District of California. | 委員会は3-0-2で司法省に付託することを決定した。メリッサ・ホリョーク委員とアンドリュー・N・ファーガソン委員は参加を見送った。訴状はカリフォルニア州中部地区連邦地方裁判所に提出された。 |
NOTE: The Commission files a complaint when it has “reason to believe” that the named defendants are violating or are about to violate the law and it appears to the Commission that a proceeding is in the public interest. The case will be decided by the court. | 注:委員会が訴状を提出するのは、指名された被告が法律に違反しているか、または違反しようとしていると「信じるに足る」理由があり、委員会にとって訴訟手続きが公共の利益に適うと思われる場合である。本件は裁判所が決定する。 |
The United States is represented in this action by Assistant Directors Rachael L. Doud and Zachary A. Dietert, and Trial Attorneys Ben Cornfeld and Marcus P. Smith, of the Civil Division’s Consumer Protection Branch. Jonathan W. Ware, Iris Micklavzina, Sarah Choi and Michael Sherling represent the FTC’s Bureau of Consumer Protection. | 米国はこの訴訟で、民事部消費者保護課のレイチェル・L・ダウド(Rachael L. Doud)、ザカリー・A・ディータート(Zachary A. Dietert)両課長補佐、ベン・コーンフェルド(Ben Cornfeld)、マーカス・P・スミス(Marcus P. Smith)両裁判弁護士が代表者を務めている。Jonathan W. Ware、Iris Micklavzina、Sarah ChoiおよびMichael SherlingはFTC消費者保護局を代表している。 |
The Federal Trade Commission works to promote competition and protect and educate consumers. The FTC will never demand money, make threats, tell you to transfer money, or promise you a prize. Learn more about consumer topics at consumer.ftc.gov, or report fraud, scams, and bad business practices at ReportFraud.ftc.gov. Follow the FTC on social media, read consumer alerts and the business blog, and sign up to get the latest FTC news and alerts. | 連邦取引委員会は競争を促進し、消費者を保護・教育するために活動している。 FTCが金銭を要求したり、脅迫したり、送金を指示したり、賞品を約束したりすることは決してない。consumer.ftc.govで消費者トピックについて詳しく学ぶか、ReportFraud.ftc.govで詐欺、詐欺、悪質商法を報告する。ソーシャルメディアでFTCをフォローし、消費者警告やビジネスブログを読み、最新のFTCニュースや警告を受け取るために登録する。 |
一方、欧州では...
TikTok commits to permanently withdraw TikTok Lite Rewards programme from the EU to comply with the Digital Services Act | TikTok、デジタルサービス法遵守のためTikTok LiteリワードプログラムのEUからの恒久的撤退を約束 |
The Commission has made TikTok’s commitments to permanently withdraw TikTok Lite Rewards programme from the EU binding. | 欧州委員会は、TikTok LiteリワードプログラムをEUから恒久的に撤退させるというTikTokの約束に拘束力を持たせた。 |
These commitments have been submitted by TikTok to address the concerns raised by the Commission in the formal proceedings opened against TikTok on 22 April and ensure compliance with the Digital Services Act (DSA). | これらの約束は、4月22日に開始されたTikTokに対する正式手続きにおいて欧州委員会が提起した懸念に対処し、デジタルサービス法(DSA)の遵守を確保するためにTikTokが提出したものである。 |
The platform has made the following commitments: | 同プラットフォームは以下の約束をした: |
・A commitment to withdraw the TikTok Lite Rewards programme from the EU, permanently; | ・TikTok LiteリワードプログラムをEUから永久に撤退させることを約束する; |
・A commitment not to launch any other programme which would circumvent the withdrawal. | ・撤退を回避するような他のプログラムを開始しないことを約束する。 |
The decision makes these commitments legally binding, meaning that any breach of the commitments would immediately amount to a breach of the DSA and could therefore lead to fines. With this decision, the Commission is also closing the formal proceedings opened against TikTok on 22 April. | 今回の決定により、これらの約束は法的拘束力を持つことになり、約束に違反した場合は直ちにDSA違反となり、制裁金が科されることになる。この決定により、欧州委員会は4月22日に開始されたティックトックに対する正式な訴訟手続きも終了する。 |
・Read the full press release and find further information about: | ・プレスリリースの全文: |
・The Digital Services Act package | ・デジタルサービス法パッケージ |
・DSA: Very large online platforms and search engines | ・DSA:超大規模オンラインプラットフォームおよび検索エンジン |
・Supervision of the designated very large online platforms and search engines under DSA | ・DSAの下で指定された超大型オンラインプラットフォームと検索エンジンの監督 |
・The enforcement framework under the Digital Services Ac | ・デジタルサービス法における執行の枠組み |
● まるちゃんの情報セキュリティ気まぐれ日記
・2024.06.09 カナダ プライバシー・コミッショナー 年次報告書 2023-2024
・2024.04.14 米国 EPIC他 テック・プラットフォーマーにAIによる選挙偽情報に対抗するように要請
・2024.03.14 米国 インテリジェンス・コミュニティによる2024年の脅威評価
・2024.02.26 英国 オーストラリア オンラインの安全とセキュリティに関する協力についての覚書
・2023.12.29 Partnership on AI 責任あるAIのすすめ:2023年のPAIリソーストップ4
・2023.11.01 カナダ プライバシーコミッショナー 若者のプライバシー保護の重要性を強調 (2023.10.25)
・2023.03.01 米国 行政予算管理局 「政府端末TikTok使用禁止法」実施ガイダンス
・2023.02.21 中国 米国の覇権、覇道、いじめとその危険性
・2022.03.25 ハーバード ベルファーセンター 大いなる経済的ライバル:中国vs.米国
・2021.12.03 米国 米国連邦議会諮問委員会 米中経済・安全保障調査委員会の報告書
・2021.11.24 ロシア ロシア国内に事務所を開設しなければならないインターネット企業13社を公表
・2021.06.13 U.S. White House 米国の機微なデータを国外の敵から保護するための大統領令
・2021.04.10 米国のソーシャルメディアの利用についての調査報告 (2021)
・2020.09.10 中国が「グローバル データ セキュリティ イニシアティブ」構想を米国の「クリーン ネットワーク」プログラム発表の1ヶ月後に提案
・2020.07.07 香港特別行政区国家安全保障保護法施行後はFacebook、Google、Microsoft、Twitterは香港当局にユーザに関するデータをとりあえずは提供していないようですね。。。TikTokは撤退?
訴状の内容...
・[PDF] Complaint
NATURE OF THE CASE | 事件の性質 |
1. Defendants operate TikTok, one of the world’s largest online social media platforms. TikTok collects, stores, and processes vast amounts of data from its users, who include millions of American children younger than 13. | 1. 被告は、世界最大級のオンライン・ソーシャルメディア・プラットフォームであるTikTokを運営している。TikTokは、13歳未満の数百万人の米国児童を含むユーザーから膨大な量のデータを収集、保存、処理している。 |
2. For years, Defendants have knowingly allowed children under 13 to create and use TikTok accounts without their parents’ knowledge or consent, have collected extensive data from those children, and have failed to comply with parents’ requests to delete their children’s accounts and personal information. | 2. 被告は長年にわたり、13歳未満の児童が親の認識や同意なしにTikTokのアカウントを作成・使用することを故意に許可し、これらの児童から膨大なデータを収集し、児童のアカウントや個人情報を削除するよう求める親の要求に応じなかった。 |
3. Defendants’ conduct violates the Children’s Online Privacy Protection Act of 1998 (“COPPA”) and Children’s Online Privacy Protection Rule (“Rule” or “COPPA Rule”), a federal statute and regulations that protect children’s privacy and safety online. It also defies an order that this Court entered in 2019 to resolve a lawsuit in which the United States alleged that TikTok Inc.’s and TikTok Ltd.’s predecessor companies similarly violated COPPA and the COPPA Rule by allowing children to create and access accounts without their parents’ knowledge or consent, collecting data from those children, and failing to comply with parents’ requests to delete their children’s accounts and information. | 3. 被告の行為は、1998年児童オンラインプライバシー保護法(「COPPA」)および児童オンラインプライバシー保護規則(「規則」または「COPPA規則」)に違反している。また、米国がTikTok Inc.およびTikTok Ltd.の前身企業も同様に、親の知識や同意なしに子どもがアカウントを作成し、アクセスすることを許可し、それらの子どもからデータを収集し、子どものアカウントや情報を削除する親の要求に応じなかったことにより、COPPAおよびCOPPA規則に違反したと主張した訴訟を解決するために2019年に本裁判所が下した命令にも反している。 |
4. To put an end to TikTok’s unlawful massive-scale invasions of children’s privacy, the United States brings this lawsuit seeking injunctive relief, civil penalties, and other relief. | 4. 米国は、TikTokによる児童のプライバシーに対する違法な大規模侵害に終止符を打つため、差止命令による救済、民事罰およびその他の救済を求めて本訴訟を提起する。 |
JURISDICTION AND VENUE | 裁判管轄および裁判地 |
5. This Court has subject matter jurisdiction pursuant to 28 U.S.C. §§ 1331, 1337(a), 1345, and 1355. | 5. 当裁判所は、合衆国法典第28編第1331条、第1337条(a)、第1345条および第1355条に従い、主文管轄権を有する。 |
6. Venue is proper in this District under 28 U.S.C. §§ 1391(b)(2), (b)(3), (c)(1), (c)(2), (c)(3), and (d), 1395(a), and 15 U.S.C. § 53(b). | 6. 裁判地は、合衆国法律集第 28 編第 1391 条(b)(2)、(b)(3)、(c)(1)、(c)(2)、(c)(3)、および(d)、第 1395 条(a)、ならびに合衆国法律集第 15 編第 53 条(b)に基づき、本地区において適切である。 |
PLAINTIFF | 原告 |
7. Plaintiff is the United States of America. Plaintiff brings this action for violations of Section 5(a) of the FTC Act, 15 U.S.C. § 45(a), Section 1303(a) of COPPA, 15 U.S.C. § 6502(a), and the COPPA Rule, 16 C.F.R. pt. 312 (effective July 1, 2013). For these violations, Plaintiff seeks a permanent injunction, civil penalties, and other relief, pursuant to Sections 5(m)(1)(A) and 13(b) of the FTC Act, 15 U.S.C. §§ 45(m)(1)(A) and 53(b), Sections 1303(c) and 1306(d) of COPPA, 15 U.S.C. §§ 6502(c), 6505(d), and the COPPA Rule, 16 C.F.R. § 312.9. | 7. 原告は米国である。原告は、FTC法第5条(a)、15 U.S.C. § 45(a)、COPPA第1303条(a)、15 U.S.C. § 6502(a)、およびCOPPA規則16 C.F.R. pt. 312(2013年7月1日発効)の違反を理由に本訴訟を提起する。これらの違反に対して、原告は、FTC法第5条(m)(1)(A)および第13条(b)、15 U.S.C. §45(m)(1)(A)および53(b)、COPPA第1303条(c)および1306条(d)、15 U.S.C. §6502(c)、6505(d)、ならびにCOPPA規則16 C.F.R. §312.9に従って、終局的差止命令、民事罰およびその他の救済を求めている。 |
DEFENDANTS | 被告 |
8. Defendant TikTok Inc. is a California corporation with its principal place of business at 5800 Bristol Parkway, Suite 100, Culver City, California 90230. TikTok Inc. transacts or has transacted business in this District and throughout the United States. | 8. 被告TikTok Inc.は、カリフォルニア州90230カルバーシティ、5800 Bristol Parkway, Suite 100に主たる事業所を置くカリフォルニア州法人である。TikTok Inc.は本地区および米国全土で事業を展開しているか、または過去に展開していた。 |
9. Defendant TikTok U.S. Data Security Inc. is a Delaware corporation with its principal place of business shared with TikTok Inc. TikTok U.S. Data Security Inc. transacts or has transacted business in this District and throughout the United States. | 9. 被告TikTok U.S. Data Security Inc.は、TikTok Inc.と主たる事業所を共有するデラウェア州法人である。TikTok U.S. Data Security Inc.は、本地区および米国全域で事業を行い、または行っていた。 |
10. Defendant ByteDance Ltd. is a Cayman Islands company. It has had offices in the United States and in other countries. ByteDance Ltd. transacts or has transacted business in this District and throughout the United States. | 10. 被告ByteDance Ltd.はケイマン諸島の会社である。米国およびその他の国に事務所を構えている。ByteDance Ltd.は、当地区および米国全土で事業を行っているか、行ったことがある。 |
11. Defendant ByteDance Inc. is a Delaware corporation with its principal place of business at 250 Bryant Street, Mountain View, California, 94041. ByteDance Inc. transacts or has transacted business in this District and throughout the United States. | 11. 被告バイトダンス社は、デラウェア州法人であり、その主たる事業所は、250 Bryant Street, Mountain View, California, 94041にある。バイトダンス社は、本地区および米国全土で事業を行っている、または行っていた。 |
12. Defendant TikTok Pte. Ltd. is a Singapore company with its principal place of business at 8 Marina View Level 43 Asia Square Tower 1, Singapore, 018960. TikTok Pte. Ltd. transacts or has transacted business in this District and throughout the United States. | 12. 被告TikTok Pte. Ltd.はシンガポールの会社であり、その主たる所在地は8 Marina View Level 43 Asia Square Tower 1, Singapore, 018960である。TikTok Pte. Ltd.は当地区および米国全域で事業を展開しているか、または過去に展開していた。 |
13. Defendant TikTok Ltd. is a Cayman Islands company with its principal place of business in Singapore or Beijing, China. TikTok Ltd. transacts or has transacted business in this District and throughout the United States. | 13. 被告TikTok Ltd.はケイマン諸島の会社であり、シンガポールまたは中国の北京に主たる営業所がある。TikTok Ltd.は、本地区および米国全域で事業を行い、または行っていた。 |
COMMON ENTERPRISE | 共通エンタープライズ |
14. Defendants are a series of interconnected companies that operate the TikTok social media platform. Defendant ByteDance Ltd. is the parent and owner of Defendants ByteDance, Inc. and TikTok Ltd. TikTok Ltd. owns Defendants TikTok LLC and TikTok Pte. Ltd. TikTok LLC in turn owns Defendant TikTok Inc., which owns Defendant TikTok U.S. Data Security Inc. | 14. 被告は、TikTokソーシャルメディア・プラットフォームを運営する一連の相互関連企業である。被告ByteDance Ltd.は、被告ByteDance, Inc.および被告TikTok Ltd.の親会社であり、所有者である。TikTok Ltd.は被告TikTok LLCおよびTikTok Pte.Ltd.を所有している。Ltd.を所有している。TikTok LLCは被告TikTok Inc.を所有し、被告TikTok Inc.は被告TikTok U.S. Data Security Inc.を所有している。 |
15. Upon information and belief, a group of ByteDance Ltd. and TikTok Inc. executives, including Zhang Yiming, Liang Rubo, Zhao Penyuan, and Zhu Wenjia, direct and control TikTok’s core features and development. Since 2019, ByteDance Ltd. and TikTok Inc. have promoted TikTok in the United States, spending hundreds of millions of dollars on advertising, employing U.S.-based staff and executives, and developing and distributing TikTok to run on Apple and Android devices. | 15. 情報によれば、ByteDance Ltd.とTikTok Inc.の幹部グループ(Zhang Yiming、Liang Rubo、Zhao Penyuan、Zhu Wenjiaを含む)は、TikTokの中核機能と開発を指揮・管理している。2019年以降、ByteDance Ltd.とTikTok Inc.は米国でTikTokを宣伝し、広告に数億ドルを費やし、米国を拠点とするスタッフや幹部を雇用し、アップルやアンドロイド端末で動作するTikTokを開発・配布している。 |
16. ByteDance Inc. and TikTok Inc. have responsibilities for developing, providing, and supporting TikTok in the United States. | 16. ByteDance Inc.とTikTok Inc.は米国におけるTikTokの開発、プロバイダ、サポートに責任を持つ。 |
17. TikTok Pte. Ltd. serves as the U.S. distributor of TikTok through the Apple App Store and Google Play Store. | 17. TikTok Pte. Ltd.がApple App StoreおよびGoogle Play Storeを通じてTikTokの米国頒布事業者を務める。 |
18. TikTok Ltd. identifies itself as the developer of TikTok in the Apple App Store, and TikTok Pte. Ltd. identifies itself as the developer of TikTok in the Google Play Store. The tiktok.com domain is registered to TikTok Ltd. | 18. TikTok Ltd.はApple App StoreでTikTokの開発元であると自称しており、TikTok Pte. Ltd.は、Google PlayストアにおいてTikTokの開発者であることを表明している。tiktok.comドメインはTikTok Ltd.に登録されている。 |
19. Beginning in 2023, TikTok Inc. transferred personal information of children to TikTok U.S. Data Security Inc., which has maintained that data without notice to those children’s parents or parental consent. | 19. 2023年以降、TikTok Inc.は児童の個人データをTikTok U.S. Data Security Inc.に譲渡し、TikTok U.S. Data Security Inc.は児童の保護者への通知や保護者の同意なしにそのデータを管理している。 |
20. Defendants share officers and directors. For example, TikTok Inc.’s chief executive officers between 2020 and the present (Kevin Mayer, V Pappas, and Shou Zi Chew), have simultaneously held senior positions at ByteDance Ltd., and ByteDance Ltd.’s chief executive officers (Zhang Yiming and Liang Rubo) have simultaneously served as directors of TikTok Ltd. TikTok Inc.’s Global Chief Security Officer, Roland Cloutier, also served as cyber risk and data security support for ByteDance Ltd. ByteDance Inc. and TikTok Pte. Ltd.’s officers and directors have also overlapped with each other, and with officers and directors of TikTok Inc. Defendants intertwine their finances; for example, ByteDance Ltd. provides compensation and benefits to TikTok Inc.’s CEO, and TikTok Inc. employees participate in ByteDance Ltd.’s stock option plan. | 20. 被告は役員を共有している。例えば、2020年から現在までのTikTok Inc.の最高経営責任者(Kevin Mayer、V Pappas、Shou Zi Chew)は、同時にByteDance Ltd.の上級職を務めており、ByteDance Ltd.の最高経営責任者(Zhang YimingおよびLiang Rubo)は、同時にTikTok Ltd.の取締役を務めている。TikTok Inc.のグローバル・チーフ・セキュリティ・オフィサーであるRoland Cloutierは、ByteDance Ltd.のサイバーリスクおよびデータセキュリティサポートも務めていた。ByteDance Inc.とTikTok Pte. Ltd.の役員および取締役も互いに重複しており、TikTok Inc.の役員および取締役とも重複している。例えば、ByteDance Ltd.はTikTok Inc.のCEOに報酬と手当を提供し、TikTok Inc.の従業員はByteDance Ltd.のストックオプション制度に参加している。 |
21. Defendants have one centralized bank account for ByteDance Ltd.’s more than a dozen products, including TikTok. Defendants operate on a “shared services” model in which ByteDance Ltd. provides legal, safety, and privacy resources, including personnel. ByteDance’s largest shareholder, Zhang Yiming, signed the 2019 consent order with the United States on behalf of Musical.ly, TikTok Ltd.’s predecessor company. | 21. 被告は、TikTokを含むByteDance Ltd.の十数種類の製品のために1つの集中銀行口座を持っている。被告は、ByteDance Ltd.が人員を含む法務、安全、プライバシーのリソースを提供する「共有サービス」モデルで運営されている。ByteDanceの筆頭株主であるZhang Yimingは、TikTok Ltd.の前身企業であるMusical.lyを代表して、米国との2019年の同意命令に署名した。 |
22. Defendants have operated as a common enterprise while engaging in the unlawful acts and practices alleged below. | 22. 被告は以下で申し立てられた違法行為や慣行に関与しながら、共通のエンタープライズとして運営されてきた。 |
COMMERCE | 商業 |
23. At all times relevant to this Complaint, Defendants have maintained a substantial course of trade in or affecting commerce, as “commerce” is defined in Section 4 of the FTC Act, 15 U.S.C. § 44. | 23. 本訴訟に関連するすべての時点において、被告は、FTC 法第 4 条(15 U.S.C. § 44)に定義される「商取引」において、または商取引に影響を与える実質的な取引過程を維持してきた。 |
THE CHILDREN’S ONLINE PRIVACY PROTECTION ACT AND RULE | 児童オンラインプライバシー保護法および規則 |
24. Congress enacted COPPA in 1998 to protect the safety and privacy of children online by prohibiting operators of Internet websites and online services from the unauthorized or unnecessary collection of information of children younger than 13 years old. COPPA directed the FTC to promulgate a rule implementing COPPA. The FTC promulgated the COPPA Rule on November 3, 1999, under Section 1303(b) of COPPA, 15 U.S.C. § 6502(b), and Section 553 of the Administrative Procedure Act, 5 U.S.C. § 553. The Rule went into effect on April 21, 2000. The FTC promulgated revisions to the Rule that went into effect on July 1, 2013. Pursuant to COPPA Section 1303(c), 15 U.S.C. § 6502(c), and Section 18(d)(3) of the FTC Act, 15 U.S.C. § 57a(d)(3), a violation of the Rule constitutes an unfair or deceptive act or practice in or affecting commerce, in violation of Section 5(a) of the FTC Act, 15 U.S.C. § 45(a). | 24. 連邦議会は1998年にCOPPAを制定し、インターネットウェブサイトやオンラインサービスの運営者が13歳未満の児童の情報を無許可または不必要に収集することを禁止することで、オンライン上の児童の安全とプライバシーを保護している。COPPAはFTCに対し、COPPAを実施する規則を公布するよう指示した。FTCは、COPPA1303条(b)(合衆国法典第15編第6502条(b))及び行政手続法553条(合衆国法典第5編第553条)に基づき、1999年11月3日にCOPPA規則を公布した。同規則は2000年4月21日に施行された。FTCは規則の改訂を公布し、2013年7月1日に発効した。COPPA第1303条(c)(合衆国法律集第15編第6502条(c))およびFTC法第18条(d)(3)(合衆国法律集第15編第57a条(d)(3))に基づき、本規則違反は、FTC法第5条(a)(合衆国法律集第15編第45編(a))に違反し、商取引において、または商取引に影響を及ぼす、不公正または欺瞞的な行為または慣行を構成する。 |
25. The COPPA Rule applies to any operator of a commercial website or online service directed to children. It also applies to any operator of a commercial website or online service that has actual knowledge that it collects, uses, and/or discloses personal information from children. The Rule requires an operator to meet specific requirements prior to collecting, using, or disclosing children’s personal information online. These requirements include: | 25. COPPA規則は、子供向けの商用ウェブサイトまたはオンラインサービスの運営者に適用される。また、児童から個人情報を収集、使用、および/または開示することを実際に知っている商用ウェブサイトまたはオンラインサービスの運営者にも適用される。同規則は、運営者がオンラインで児童の個人情報を収集、使用、開示する前に、特定の要件を満たすことを求めている。これらの要件には以下が含まれる: |
a) Posting a privacy policy on its website or online service providing clear, understandable, and complete notice of its information practices, including what information the operator collects from children online, how it uses such information, its disclosure practices for such information, and other specific disclosures set forth in the Rule; | a) ウェブサイトまたはオンラインサービスにプライバシーポリシーを掲載し、事業者がオンラインで子どもから収集する情報の内容、当該情報の使用方法、当該情報の開示方法、および規則で規定されているその他の具体的な開示を含め、その情報慣行について明確かつ理解しやすく、完全な通知を提供すること; |
b) Providing clear, understandable, and complete notice of its information practices, including specific disclosures, directly to parents; | b) 具体的な開示を含む、情報慣行に関する明確で理解しやすく、完全な通知を、保護者に直接提供すること; |
c) Obtaining verifiable parental consent prior to collecting, using, and/or disclosing children’s personal information; | c) 子どもの個人情報を収集、使用、および/または開示する前に、検証可能な保護者の同意を得ること; |
d) Providing reasonable means for parents to review personal information collected from children online, at a parent’s request; and | d) 保護者の求めに応じて、オンラインで子供から収集した個人情報を保護者が確認できる合理的な手段を提供すること。 |
e) Deleting personal information collected from children online, at a parent’s request. | e) 親の要求に応じて、オンラインで子供から収集した個人情報を削除すること。 |
THE 2019 PERMANENT INJUNCTION | 2019年終局的差止命令 |
26. Musical.ly was a video-based platform with millions of U.S. child users. In February 2019, the United States filed a complaint against Musical.ly and Musical.ly, Inc. alleging violations of the COPPA Rule, 16 C.F.R. pt. 312, and Section 5 of the FTC Act, 15 U.S.C. § 45. See United States v. Musical.ly, et al., No. 2:19-cv-01439-ODW-RAO (C.D. Cal. Feb. 27, 2019) (Dkt. No. 1). | 26. Musical.lyは、数百万人の米国の児童ユーザーを有する動画ベースのプラットフォームであった。2019年2月、米国はMusical.lyおよびMusical.ly, Inc.に対し、COPPA規則(16 C.F.R. pt. 312)およびFTC法第5条(15 U.S.C. § 45)違反を主張する訴状を提出した。米国 v. Musical.ly, et al., No. 2:19-cv-01439-ODW-RAO (C.D. Cal. Feb. 27, 2019) (Dkt. No. 1)を参照のこと。 |
27. On March 27, 2019, this Court entered a Stipulated Order for Civil Penalties, Permanent Injunction, and Other Relief against Musical.ly and Musical.ly, Inc. United States v. Musical.ly, et al., No. 2:19-cv-01439-ODW-RAO (C.D. Cal. Mar. 27, 2019) (Dkt. No. 10) (the 2019 Permanent Injunction). The order imposed a $5.7 million civil penalty; required Defendants to destroy personal information of users under the age of 13 and, by May 2019, remove accounts of users whose age could not be identified; enjoined Defendants from violating the COPPA Rule; and required Defendants to retain certain records related to compliance with the COPPA Rule and the 2019 Permanent Injunction. | 27. 2019年3月27日、当裁判所は、Musical.lyおよびMusical.ly, Inc.に対する民事罰、永久差し止め、およびその他の救済を求める略式命令を下した。米国対Musical.ly, et al., No. 2:19-cv-01439-ODW-RAO (C.D. Cal. Mar. 27, 2019) (Dkt. No. 10) (2019 Permanent Injunction)を下した。同命令は570万ドルの民事罰を課し、被告に13歳未満のユーザーの個人情報を破棄し、2019年5月までに年齢が特定できないユーザーのアカウントを削除することを要求し、被告にCOPPA規則違反を差し止め、被告にCOPPA規則と2019年恒久差止命令の遵守に関連する特定の記録を保持することを要求した。 |
28. In April 2019, Musical.ly was renamed TikTok Ltd., and in May 2019, Musical.ly Inc. was renamed TikTok Inc. The renaming did not alter the companies’ compliance obligations under the 2019 Permanent Injunction. | 28. 2019年4月、Musical.lyはTikTok Ltd.に社名変更し、2019年5月、Musical.ly Inc.はTikTok Inc.に社名変更した。この改称は、2019年恒久差止命令の下での両社のコンプライアンス義務を変更するものではなかった。 |
DEFENDANTS’ BUSINESS ACTIVITIES | 被告らの事業活動 |
29. Since before 2019, Defendants have operated TikTok, a video-based social media platform that consumers may access via the Internet or through a downloadable software application or “app.” In November 2017, ByteDance Ltd. purchased Musical.ly and, in 2018 it merged it into TikTok. | 29. 2019年以前から、被告は、消費者がインターネットを通じて、またはダウンロード可能なソフトウェアアプリケーションまたは "アプリ "を通じてアクセスできる動画ベースのソーシャルメディアプラットフォームであるTikTokを運営してきた。2017年11月、ByteDance Ltd.はMusical.lyを買収し、2018年にはこれをTikTokに統合した。 |
30. The TikTok platform allows users to create, upload, and share shortform videos. The TikTok app is free to download. It generates revenue for Defendants through advertising and eCommerce, including through the TikTok for Business platform, as well as in-app purchases of TikTok “coin” through the TikTok Shop. | 30. TikTokプラットフォームは、ユーザーが短編動画を作成、アップロード、共有することを可能にする。TikTokアプリは無料でダウンロードできる。TikTokアプリは無料でダウンロードでき、TikTok for Businessプラットフォームを含む広告や電子商取引、TikTok Shopを通じたTikTok「コイン」のアプリ内購入を通じて被告に収益をもたらす。 |
31. TikTok features a “For You” feed in which an algorithm subject to Defendants’ control selects videos for each user based on its determination of their interests, pushes those videos to the user, and plays them. | 31. TikTokは「For You」フィードを特徴としており、被告の管理下にあるアルゴリズムが各ユーザーの興味に基づき動画を選択し、それらの動画をユーザーにプッシュし、再生する。 |
32. TikTok’s algorithms are trained on data collected from users via the TikTok platform and from third-party sources. Such data include videos viewed, “liked,” or shared, accounts followed, comments, content created, video captions, sounds, and hashtags, as well as device and account settings such as language preference, country setting, and device type. | 32. TikTokのアルゴリズムは、TikTokプラットフォームおよびサードパーティ・ソースを通じてユーザーから収集したデータに基づいて訓練されている。このようなデータには、視聴、「いいね」、または共有された動画、フォローされたアカウント、コメント、作成されたコンテンツ、動画のキャプション、サウンド、ハッシュタグのほか、言語設定、国設定、デバイスの種類などのデバイスやアカウントの設定が含まれる。 |
33. As of 2024, there are more than 170 million TikTok users in the United States, including many children and teens. In 2022, two-thirds of U.S. teens reported using TikTok, including about 61% of teens aged 13 or 14. By late 2023, nearly half of U.S. teens reported using TikTok multiple times a day. | 33. 2024年現在、米国のTikTokユーザーは1億7,000万人を超え、その中には多くの子供や10代の若者も含まれている。2022年には、米国の10代の若者の3分の2がTikTokを利用していると報告し、そのうちの約61%は13歳か14歳の10代であった。2023年後半には、米国の10代の約半数が1日に複数回TikTokを利用していると報告した。 |
DEFENDANTS’ UNLAWFUL CONDUCT | 被告らの違法行為 |
34. Defendants have known of COPPA, the COPPA Rule, and their requirements since at least 2017, directly or through their predecessors and affiliates, including through Musical.ly’s and Musical.ly, Inc.’s agreement to the 2019 Permanent Injunction, which requires compliance with COPPA and the COPPA Rule. | 34. 被告は、Musical.lyおよびMusical.ly, Inc.のCOPPAおよびCOPPAルールの遵守を求める2019年の永久差し止め命令への合意を含め、直接または前任者や関連会社を通じて、少なくとも2017年以降、COPPA、COPPAルール、およびそれらの要件を知っていた。 |
35. TikTok is directed to children (i.e., individuals under age 13, as used herein and in COPPA and the Rule). An online service that does not target children as its primary audience is not deemed directed to children under the COPPA Rule if it satisfies certain criteria. Defendants purport to satisfy these criteria by requiring users creating accounts to report their birthdates. As described in this Complaint, however, Defendants have allowed children to bypass or evade this “age gate” and collected personal information even from individuals who identify themselves as children. Further, as described in this Complaint, Defendants have actual knowledge that they are collecting personal information from children. | 35. TikTokは児童(すなわち、本明細書およびCOPPAおよび規則で使用される13歳未満の個人)を対象としている。児童を主な対象としていないオンラインサービスは、一定の基準を満たす場合、COPPA規則の下で児童に向けられたものとはみなされない。被告は、アカウントを作成するユーザーに生年月日を報告するよう求めることで、これらの基準を満たすとしている。しかし、本訴訟に記載されているように、被告は、この「年齢制限」を回避または回避することを子供に許可し、子供であると自認する個人からも個人情報を収集している。さらに、本訴訟に記載されているように、被告は子どもから個人情報を収集していることを実際に知っている。 |
36. Defendants have violated COPPA and the COPPA Rule through the conduct described in this Complaint, including by (1) knowingly creating accounts for children and collecting data from those children without first notifying their parents and obtaining verifiable parental consent; (2) failing to honor parents’ requests to delete their children’s accounts and information; and (3) failing to delete the accounts and information of users they know are children. | 36. 被告は、(1)故意に子供のアカウントを作成し、まず親に通知し、検証可能な親の同意を得ることなく、それらの子供からデータを収集すること、(2)子供のアカウントおよび情報を削除するよう求める親の要求に応じないこと、および(3)子供であることを知っているユーザーのアカウントおよび情報を削除しないことなど、本訴訟に記載されている行為を通じて、COPPAおよびCOPPA規則に違反した。 |
37. Each time Defendants have collected a child’s personal information without parental notice or verifiable consent, or have failed to delete that information at the request of the child’s parents or upon learning it was collected from a child whose parents’ were not notified or did not provide verifiable consent, Defendants violated COPPA and the COPPA Rule. | 37. 被告が保護者への通知や検証可能な同意なしに子供の個人情報を収集するたびに、または子供の保護者の要求に応じて、または保護者に通知されていない、または検証可能な同意が提供されていない子供から収集されたことを知った時点で、その情報を削除しなかった場合、被告はCOPPAおよびCOPPA規則に違反した。 |
38. Defendants’ conduct has resulted in millions of children using TikTok, but the precise magnitude of Defendants’ violations is difficult to determine due to their failure to comply with the 2019 Permanent Injunction’s requirement that they keep records demonstrating its COPPA compliance. | 38. 被告の行為により、数百万人の児童がTikTokを利用しているが、被告の違反の正確な規模は、COPPA遵守を証明する記録を保存するという2019年恒久差止命令の要件を遵守していないため、判断が困難である。 |
I. Defendants Have Knowingly Created Accounts for Children and Collected Those Children’s Data Without Parental Notice or Consent. | I. 被告は故意に児童のアカウントを作成し、保護者への通知や同意なしに児童のデータを収集した。 |
39. Since at least March 2019, Defendants have offered in the United States what they refer to as TikTok for Younger Users or “Kids Mode” (hereinafter “Kids Mode”) to children who identify themselves as being under 13 when they create an account, and a regular TikTok experience to other users. However, Defendants have knowingly allowed children under 13 to create accounts in the regular TikTok experience and collected extensive personal information from those children without first providing parental notice or obtaining verifiable parental consent, as required by the COPPA Rule. Defendants have also violated the COPPA Rule by collecting, without parental notice and consent, several varieties of personal information from children with Kids Mode accounts, and by using children’s information in ways that the COPPA Rule prohibits. | 39. 少なくとも2019年3月以降、被告は米国で、アカウントを作成する際に13歳未満であると名乗る子供にはTikTok for Younger Usersまたは「キッズモード」(以下「キッズモード」)と称するものを提供し、その他のユーザーには通常のTikTok体験を提供してきた。しかし、被告は故意に13歳未満の児童が通常のTikTok体験でアカウントを作成することを許可し、COPPA規則で義務付けられている保護者への通知や確認可能な保護者の同意を最初に得ることなく、これらの児童から広範な個人情報を収集している。また、被告は、キッズモードのアカウントを持つ児童から、保護者への通知および同意なしに数種類の個人情報を収集し、COPPA規則が禁止する方法で児童の情報を使用することにより、COPPA規則に違反した。 |
A. Defendants Allowed Children to Evade or Bypass TikTok’s Age Gate | A. 被告は、子供たちがTikTokの年齢制限を回避または迂回することを許可した。 |
40. Since at least March 2019, when consumers in the United States attempt to create a TikTok account, they generally have had to go through the platform’s “age gate” by providing a birthday (day, month, and year). If a consumer indicates that they are 13 or older, they are prompted for a username, password, and email address or phone number. Defendants then create a regular account for the user, and the user can view, create, post, and share videos, as well as message other TikTok users. | 40. 少なくとも2019年3月以降、米国の消費者がTikTokアカウントを作成しようとする場合、一般的に誕生日(日、月、年)を提供することでプラットフォームの「年齢ゲート」を通過する必要がある。消費者が13歳以上であることを示すと、ユーザー名、パスワード、電子メールアドレスまたは電話番号の入力を求められる。その後、被告はユーザーのために通常のアカウントを作成し、ユーザーは動画の閲覧、作成、投稿、共有、他のTikTokユーザーへのメッセージを行うことができる。 |
41. For TikTok users who self-identify as 13 or older at the age gate, Defendants collect a wide variety of personal information, such as first and last name, age, email address, phone number, persistent identifiers for the device(s) used to access TikTok, social media account information, and profile image(s), as well as photographs, videos, and audio files containing the user’s image and voice and the metadata associated with such media (such as when, where, and by whom the content was created). | 41. 年齢ゲートで13歳以上であることを自認するTikTokユーザーについて、被告は、姓名、年齢、電子メールアドレス、電話番号、TikTokにアクセスするために使用するデバイスの永続的識別子、ソーシャルメディアアカウント情報、プロフィール画像に加え、ユーザーの画像や音声を含む写真、動画、音声ファイル、およびそのようなメディアに関連するメタデータ(コンテンツがいつ、どこで、誰によって作成されたかなど)など、多種多様な個人情報を収集する。 |
42. Over time, Defendants collect increasingly more information from these users, including usage information, device information, location data, image and audio information, metadata, and data from cookies and similar technologies that track users across different websites and platforms. | 42. 時間の経過とともに、被告はこれらのユーザーから、利用情報、デバイス情報、位置情報、画像および音声情報、メタデータ、および異なるウェブサイトやプラットフォーム間でユーザーを追跡するクッキーや同様の技術からのデータなど、ますます多くの情報を収集する。 |
43. Since at least March 2019, if a U.S. consumer inputs into the age gate a birthday indicating they are a child under 13 years old, the child generally is prompted to provide a username (that does not include any personal information) and a password. The TikTok platform then creates an account for that child in Kids Mode. Defendants do not notify parents or obtain parental consent for Kids Mode accounts. | 43. 少なくとも2019年3月以降、米国の消費者が年齢ゲートに13歳未満の子供であることを示す誕生日を入力すると、その子供は通常、ユーザー名(個人情報を含まない)とパスワードを提供するよう促される。その後、TikTokプラットフォームはキッズモードでその子供のアカウントを作成する。被告はキッズモードのアカウントについて、保護者に通知したり、保護者の同意を得たりしていない。 |
44. In Kids Mode, a user can view videos but cannot create or upload videos, post information publicly, or message other users. Defendants still collect and use certain personal information from children in Kids Mode. | 44. キッズモードでは、ユーザーは動画を閲覧することはできるが、動画を作成したりアップロードしたり、情報を公開投稿したり、他のユーザーにメッセージを送ったりすることはできない。被告は、キッズモードにおいても、子どもから特定の個人情報を収集し、利用している。 |
45. Defendants’ methodologies for screening out child users are deficient in multiple ways. Until at least late 2020, if a child in the U.S. submitted a birthday reflecting that they were under 13 years old, the TikTok platform did not prevent the child from evading the age gate by trying again: i.e., restarting the account creation process and giving the age gate a birthday indicating they were 13 or older, even though by that point Defendants knew from the birthday the user had previously provided that the user was a child. [XXX]. | 45. 子供のユーザーを選別するための被告の方法は、複数の点で欠陥がある。少なくとも2020年後半まで、米国内の児童が13歳未満であることを反映した誕生日を提出した場合、TikTokプラットフォームは、その児童が再試行することによって年齢ゲートを回避することを防止しなかった。すなわち、アカウント作成プロセスを再開し、13歳以上であることを示す誕生日を年齢ゲートに提出した場合、その時点までに被告は、ユーザが以前に提供した誕生日から、そのユーザが児童であることを知っていたにもかかわらず。[XXX]. |
46. Until at least May 2022, Defendants offered consumers a way to avoid the TikTok age gate altogether when creating a TikTok account, by allowing them to use login credentials from certain third-party online services, including Instagram and Google. Defendants internally identified these TikTok accounts as “age unknown” accounts. | 46. 少なくとも2022年5月まで、被告はTikTokアカウントを作成する際、InstagramやGoogleを含む特定のサードパーティ・オンラインサービスのログイン認証情報を使用できるようにすることで、TikTokの年齢制限を完全に回避する方法を消費者に提供していた。被告はこれらのTikTokアカウントを「年齢不明」アカウントとして社内で識別していた。 |
47. For example, Defendants allowed children to create TikTok accounts without age gating them by letting children use login credentials from Instagram, even though Instagram did not itself require users to disclose their age or date of birth to create an Instagram account until at least December 2019. | 47. 例えば、被告は、インスタグラムが少なくとも2019年12月まで、インスタグラムのアカウントを作成するためにユーザーに年齢や生年月日を開示することを義務付けていないにもかかわらず、インスタグラムからのログイン認証情報を子供に使用させることで、年齢制限なしに子供がTikTokアカウントを作成できるようにしていた。 |
48. Defendants also allowed children to create TikTok accounts without age gating by letting children use login credentials from Google. Google allowed children under the age of 13 to create Google accounts with parental consent to use Google. | 48. 被告はまた、子供たちにグーグルのログイン認証情報を使用させることで、年齢制限なしに子供たちがTikTokアカウントを作成できるようにしていた。グーグルは、13歳未満の子供がグーグルを利用するために、親の同意を得てグーグルアカウントを作成することを許可していた。 |
49. Defendants’ insufficient policies and practices thus allowed children to create a non-Kids Mode TikTok account, gaining access to adult content and features of the general TikTok platform without providing age information. Without parental notice or consent, Defendants then collected and maintained vast amounts of personal information from the children who created and used these regular TikTok accounts. | 49. 被告の不十分なポリシーと慣行により、子供たちはキッズモード以外のTikTokアカウントを作成し、年齢情報を提供することなく、成人向けコンテンツや一般的なTikTokプラットフォームの機能にアクセスできるようになった。そして、被告は、保護者への通知や同意なしに、これらの通常のTikTokアカウントを作成し、利用した子供たちから膨大な量の個人情報を収集し、管理していた。 |
50. These policies and practices led to the creation of millions of accounts for which Defendants did not know the age of the user. | 50. このような方針と慣行により、被告はユーザーの年齢を知らないアカウントを何百万人も作成した。 |
51. Defendants did not start requiring all users to go through a TikTok age gate until at least 2022, closing what employees internally described in early 2021 as an age gate “loophole.” | 51. 被告は少なくとも2022年まで、すべてのユーザーにTikTokの年齢ゲートを通過することを義務付けず、2021年初めに従業員が内部で年齢ゲートの "抜け穴 "と説明していたものを塞いだ。 |
B. Defendants Failed to Comply with COPPA and the COPPA Rule Even for Accounts in “Kids Mode” | B. 被告は、「キッズモード」のアカウントであっても、COPPAおよびCOPPA規則を遵守しなかった。 |
52. In Kids Mode, Defendants collect and maintain a username, password, and birthday (day, month, and year). They have also collected several types of persistent identifiers from Kids Mode users without notifying parents or obtaining their consent, including IP address and unique device identifiers. | 52. キッズモードにおいて、被告はユーザー名、パスワード、誕生日(日、月、年)を収集し、管理している。また、キッズモードのユーザーから、IPアドレスや固有のデバイス識別子など、いくつかの種類の永続的識別子を保護者に通知することなく、同意を得ることなく収集している。 |
53. The COPPA Rule permits operators to collect a persistent identifier from children under certain circumstances without first obtaining verifiable parental consent, but only if no other personal information is collected and the identifier is used for the sole purpose of providing support for the online service’s internal operations. See 16 C.F.R. § 312.4(c)(7). Defendants’ collection and use of persistent identifiers from Kids Mode users do not comply with this provision. | 53. COPPA規則は、特定の状況下において、事業者が検証可能な保護者の同意を最初に得ることなく、子どもから永続的識別子を収集することを認めている。ただし、他の個人を特定できる情報が収集されず、その識別子がオンラインサービスの内部運営をサポートする目的のみに使用される場合に限る。連邦規則集第 16 編第 312.4 条(c)(7)を参照のこと。被告によるキッズモード利用者からの永続的識別子の収集および使用は、この規定に準拠していない。 |
54. Defendants additionally collect dozens of other types of information concerning child users with Kids Mode accounts—including app activity data, device information, mobile carrier information, and app information—which they combine with persistent identifiers and use to amass profiles on children. | 54. 被告はさらに、キッズモードのアカウントを持つ子供のユーザーに関して、アプリのアクティビティデータ、デバイス情報、携帯電話会社情報、およびアプリ情報を含む数十種類の情報を収集し、これらを永続的識別子と組み合わせて子供のプロファイルを蓄積するために使用している。 |
55. Defendants did not need to collect all of the persistent identifiers they have collected from users in Kids Mode to operate the TikTok platform. | 55. 被告は、TikTokプラットフォームを運営するために、キッズモードのユーザーから収集したすべての永続的識別子を収集する必要はなかった。 |
56. Until at least mid-2020, Defendants shared information they collected from children in Kids Mode with third parties for reasons other than support for internal operations. Defendants did not notify parents of that practice. | 56. 少なくとも2020年半ばまで、被告は、内部運営のサポート以外の理由で、キッズモードで子供から収集した情報をサードパーティと共有していた。被告はそのような慣行を保護者に通知しなかった。 |
57. For example, Defendants shared this information with Facebook and AppsFlyer, a marketing analytics firm, in part to encourage existing Kids Mode users whose use had declined or ceased to use Kids Mode more frequently. Defendants called this process “retargeting less active users.” This practice used children’s personal information for reasons beyond support for the internal operations of Kids Mode and thus was not permitted by the COPPA Rule. | 57. 例えば、被告はこの情報をFacebookおよびマーケティング分析会社であるAppsFlyerと共有し、キッズモードの利用が減少または停止した既存のキッズモード利用者に、キッズモードをより頻繁に利用するよう促すことを目的としていた。被告はこのプロセスを "アクティブでないユーザーのリターゲティング "と呼んでいた。この行為は、キッズモードの内部運営をサポートする以上の理由で子どもの個人情報を使用するものであり、COPPA規則で認められていない。 |
58. Separately, users in Kids Mode can send feedback to TikTok using an in-app “Report a Problem” function. When doing so, Defendants require the child to enter the child’s email address. | 58. これとは別に、キッズモードのユーザーは、アプリ内の「問題を報告」機能を使ってTikTokにフィードバックを送ることができる。その際、被告は子供に子供のメールアドレスを入力させる。 |
59. Between February 2019 and July 2022, for example, Defendants collected over 300,000 problem reports from users in Kids Mode that included children’s email addresses. | 59. 例えば2019年2月から2022年7月までの間に、被告はキッズモードのユーザーから子供のメールアドレスを含む30万件以上の問題報告を収集した。 |
60. Defendants did not delete these children’s email addresses after processing the reports, and thus retained these email addresses longer than reasonably necessary to fulfill the purpose for which the information was collected, in violation of the Rule. See 16 C.F.R. § 312.10. Defendants did not notify parents of this ongoing practice. | 60. 被告は、報告を処理した後、これらの子供の電子メールアドレスを削除しなかったため、規則に違反して、情報が収集された目的を果たすために合理的に必要な期間を超えて、これらの電子メールアドレスを保持した。連邦規則集第16編第312.10条を参照のこと。被告はこの継続的な慣行について保護者に通知しなかった。 |
II. Defendants Have Obstructed and Failed to Honor Parents’ Requests to Delete Their Children’s Accounts and Data. | II. 被告は、子供のアカウントとデータの削除を求める親の要求を妨害し、それに応じなかった。 |
61. Since 2019, Defendants have allowed millions of children to create general TikTok accounts—i.e., accounts outside of Kids Mode. | 61. 2019年以降、被告は何百万人もの子供たちが一般的なTikTokアカウント、すなわちキッズモード以外のアカウントを作成することを許可してきた。 |
62. Many children create and use a general TikTok account without their parents’ knowledge. Frequently, however, a parent becomes aware that their child has a general TikTok account and seeks to have it and its associated data deleted. | 62. 多くの子供は、親が知らないうちに一般的なTikTokアカウントを作成し、使用している。しかし、親が子供が一般的なTikTokアカウントを持っていることに気づき、そのアカウントと関連データの削除を求めることがよくある。 |
63. The COPPA Rule and the 2019 Permanent Injunction require Defendants to delete personal information collected from children at their parents’ request. Nevertheless, in many instances Defendants have obstructed parents’ ability to make such requests and have failed to comply with these requests. | 63. COPPA規則と2019年恒久差止命令は、被告に対し、親の要請に応じて子供から収集した個人情報を削除するよう求めている。それにもかかわらず、被告は多くの場合、親がそのような要求をすることを妨害し、これらの要求に応じなかった。 |
A. Defendants Maintained an Unreasonable Process for Parents to Request Deletion of their Children’s Data | A. 被告は、親が子供のデータの削除を要求するための不合理なプロセスを維持してきた。 |
64. Defendants failed to create a simple process for parents to submit a deletion request. For example, the word “delete” does not appear in many of Defendants’ online parental guidance materials, such as TikTok’s “Guardian’s Guide,” the “Privacy and Security on TikTok” page, TikTok’s “New User Guide,” and other materials on tiktok.com such as the “Parental Controls Guide” and “The Parent’s Guide to TikTok.” | 64. 被告は、保護者が削除要求を提出するための簡単なプロセスを作成することを怠った。例えば、TikTokの「保護者ガイド」、「TikTokのプライバシーとセキュリティ」ページ、TikTokの「新規ユーザーガイド」、「保護者によるコントロールガイド」や「TikTokの保護者ガイド」などのtiktok.com上の他の資料など、被告のオンライン保護者向けガイダンス資料の多くには、「削除」という言葉は出てこない。 |
65. Parents must navigate a convoluted process to figure out how to request deletion of their child’s account and information. For example, as recently as 2023, a parent visiting tiktok.com to request deletion of their child’s TikTok account and information had to scroll through multiple webpages to find and click on a series of links and menu options that gave no clear indication they apply to such a request. Parents then had to explain in a text box that they are a parent who wanted their child’s account and data to be deleted. | 65. 保護者は、子供のアカウントと情報の削除を要求する方法を見つけるために、複雑なプロセスをナビゲートしなければならない。例えば、2023年の時点で、子供のTikTokアカウントと情報の削除を要求するためにtiktok.comを訪れた親は、複数のウェブページをスクロールして、そのような要求に適用されることを明確に示すことのない一連のリンクとメニューオプションを見つけ、クリックしなければならなかった。その後、親はテキストボックスで、自分が子どものアカウントとデータの削除を望む親であることを説明しなければならなかった。 |
66. At times, Defendants also directed parents to send their requests to delete their children’s accounts and personal information to an email address. As detailed below, in many cases Defendants failed to respond in a timely manner to these requests, or simply failed to respond to them at all. | 66. 被告はまた、子供のアカウントと個人情報の削除要求を電子メールアドレスに送信するよう親に指示することもあった。以下に詳述するように、多くの場合、被告はこれらの要求に適時に対応できず、あるいは単に全く対応しなかった。 |
67. Even if a parent succeeded in submitting a request to delete their child’s account and information, Defendants often did not honor that request. In response to each request, Defendants’ staff would review the account for “objective indicators” that the account holder was under 13, or “underage,” based on the user’s handle, biography or “bio,” [XXX]. Under Defendants’ policy, an account would be identified as an underage account and deleted only if the reviewed elements contained an explicit admission that the user was under 13—for example, “I am in first grade” or “I am 9 years old”— [XXX]. To determine whether a child was younger than 13, Defendants instructed reviewers to use [XXX]. | 67. 親が子供のアカウントと情報の削除要求を提出することに成功したとしても、被告はその要求に応じないことが多かった。各要請に応じて、被告のスタッフは、ユーザーのハンドルネーム、経歴または「バイオ」[XXX]に基づいて、アカウント保有者が13歳未満、または「未成年」であるという「客観的指標」がないかどうかを確認する。被告のポリシーの下では、レビューされた要素に、ユーザーが13歳未満であることを明確に認める内容、例えば「私は小学1年生です」や「私は9歳です」などが含まれている場合にのみ、アカウントは未成年のアカウントとして識別され、削除されることになる [XXX]。子供が13歳未満かどうかを判断するために、被告はレビュアーに[XXX]を使用するよう指示した。 |
68. If the account failed to meet Defendants’ rigid criteria, Defendants’ policy until recently was to respond to the underage account deletion request by asking the parent to complete and sign a form confirming their relationship to the child and the nature of the request. The parent had to certify under penalty of perjury that they were the parent or guardian of the account user. Defendants required parents to complete the form regardless of whether the parent had already provided Defendants with all of the information the form requested. | 68. アカウントが被告の厳格な基準を満たさない場合、被告は最近まで、未成年者のアカウント削除要求に対して、親に子供との関係と要求の内容を確認する書類に記入し、署名するよう求める方針だった。親は偽証罪に基づき、自分がアカウント利用者の親または保護者であることを証明しなければならなかった。被告は、親がすでに被告にフォームが要求するすべての情報を提供していたかどうかに関係なく、フォームに記入するよう親に要求した。 |
69. If a parent or guardian did not submit the secondary form, Defendants would not delete the child’s regular TikTok account, which remained active. | 69. 親または保護者が二次フォームを提出しなかった場合、被告は子供の通常のTikTokアカウントを削除せず、有効なままであった。 |
70. Defendants’ policies and practices subverted parents’ efforts to delete their children’s accounts and resulted in Defendants retaining children’s accounts—and personal information—even though their parents identified them as children and asked TikTok to delete their accounts. | 70. 被告の方針と慣行は、子供のアカウントを削除しようとする保護者の努力を妨害し、その結果、親が子供であることを確認し、TikTokにアカウントの削除を依頼したにもかかわらず、被告は子供のアカウントと個人情報を保持した。 |
71. Defendants were well aware this was occurring. For example, in a 2018 exchange, a high-level employee of Defendants explicitly acknowledged that Defendants had “actual knowledge” of children on TikTok upon receiving the first parental request, and yet did not delete children’s accounts upon receiving the request. In the exchange, the former CEO of TikTok Inc. communicated about underage users on TikTok with the executive responsible for child safety issues in the United States. The employee in charge of child safety issues questioned why parents had to fill out a second form after they already provided the necessary information, noting: “Why we reply with this template everytime [sic] when we already have all the info that’s needed? [I]n this case, we already have the username, the name of the reporter, and the age, yet we still reply with the template.” He added that if the person reporting the account “doesn’t reply then we have actual knowledge of underage user and took no action!” | 71. 被告はこのようなことが起きていることをよく知っていた。例えば、2018年のやりとりの中で、被告の高位社員は、被告が最初の親からの要請を受けた時点でTikTokに子供がいることを「実際に知っていた」にもかかわらず、要請を受けても子供のアカウントを削除しなかったことを明確に認めている。このやり取りの中で、TikTok Inc.の元CEOは、米国の児童安全問題を担当する幹部とTikTok上の未成年ユーザーについてコミュニケーションした。児童の安全問題を担当する従業員は、保護者がすでに必要な情報を提供したのに、なぜ2つ目のフォームに記入しなければならないのかと疑問を呈し、こう指摘した: 「すでに必要な情報はすべて持っているのに、なぜ毎回このテンプレートで返信するのか。[今回のケースでは、ユーザー名、報告者の名前、年齢をすでに入手しているにもかかわらず、まだテンプレートで返信している」と指摘した。さらに、アカウントを報告した人が "返信しない場合、私たちは未成年のユーザーを実際に知っていて、何も行動を起こさなかったことになる!"と付け加えた。 |
72. Despite this awareness that they were failing to respect parents’ deletion requests, Defendants continued using this flawed process through 2023. | 72. このように保護者の削除要求を尊重できていないことを認識していたにもかかわらず、被告は2023年までこの欠陥のあるプロセスを使い続けた。 |
B. Defendants Failed to Delete Children’s Data upon Parental Request and Cease Collecting Children’s Personal Information | B. 被告は、保護者の要求に応じて子供のデータを削除し、子供の個人情報の収集を中止しなかった。 |
73. In addition to using what they knew to be a flawed process to address parents’ deletion requests, Defendants in many cases did not respond to parents’ requests at all. As of late December 2020, Defendants had a backlog of thousands of emails dating back months requesting that TikTok delete individual children’s accounts. | 73. 欠陥のあるプロセスであることを知りながら親の削除要求に対応することに加え、被告は多くの場合、親の要求に全く対応しなかった。2020年12月下旬の時点で、被告は、TikTokが個々の子供のアカウントを削除するよう要求する数ヶ月前にさかのぼる数千通の電子メールを滞留させていた。 |
74. Defendants’ inadequate policies and inaction led to numerous children continuing to maintain regular TikTok accounts even though their parents had asked Defendants to delete those accounts. In a sample of approximately 1,700 children’s TikTok accounts about which Defendants received complaints and deletion requests between March 21, 2019, and December 14, 2020, approximately 500 (30%) remained active as of November 1, 2021. Several hundred of these accounts were still active in March 2023. This sample of children’s accounts is likely a small fraction of the thousands of deletion requests Defendants received and failed to act on. | 74. 被告の不十分な方針と不作為により、親が被告にアカウント削除を要請したにもかかわらず、多数の児童がTikTokの正規アカウントを維持し続けていた。2019年3月21日から2020年12月14日の間に被告が苦情や削除要請を受けた約1,700人の子供のTikTokアカウントのサンプルでは、2021年11月1日の時点で約500人(30%)が有効なままであった。このうち数百のアカウントは2023年3月時点でも有効であった。この子どものアカウントのサンプルは、被告が受け取り、対応しなかった数千の削除要請のごく一部であると思われる。 |
75. Many parents made multiple requests for Defendants to remove their children’s account and personal information. On at least some occasions, even when a parent or guardian completed Defendants’ secondary form, Defendants still failed to delete their children’s accounts and information. | 75. 多くの親が、子供のアカウントと個人情報の削除を被告に複数回要求した。少なくとも何度かは、保護者が被告の二次フォームに記入しても、被告は子供のアカウントと情報を削除しなかった。 |
76. Compounding these problems, even when Defendants did delete a child’s account and personal information at their parent’s request, at least until recently, Defendants did nothing to prevent the same child from re-creating their account with the same device, persistent identifiers, and email address or phone number as before. This means that a child whose account has been removed could simply create a new account. | 76. これらの問題をさらに深刻にしているのは、被告が親の要求に応じて子供のアカウントと個人情報を削除した場合でも、少なくとも最近までは、被告は、同じ子供が以前と同じデバイス、永続的識別子、電子メールアドレスまたは電話番号でアカウントを再作成することを防ぐことは何もしていなかったことである。つまり、アカウントが削除された子どもは、単純に新しいアカウントを作成できるのである。 |
III. Defendants Have Failed to Delete Children’s Accounts and Information Identified by Their Own Systems and Employees. | III. 被告は、自社のシステムおよび従業員によって特定された児童のアカウントおよび情報の削除を怠ってきた。 |
77. Defendants purport to use technology, user reports, and human moderation to identify children’s TikTok accounts so that those accounts and the information collected from them can be deleted. But Defendants know their processes and policies are deficient, and they fail to delete accounts and information that even their own employees and systems identify as belonging to children. | 77. 被告は、子供のTikTokアカウントを識別するために、技術、ユーザーレポート、および人間のモデレーションを使用して、これらのアカウントとそこから収集された情報を削除できるようにすると称している。しかし、被告はそのプロセスとポリシーに欠陥があることを知っており、自社の従業員とシステムでさえ、子供のものであると特定したアカウントと情報を削除していない。 |
A. Defendants’ “Keyword Matching” Process | A. 被告の「キーワード照合」プロセス |
78. Since approximately 2020, Defendants have used “keyword matching” purportedly to identify children’s accounts for deletion. Defendants’ keyword matching process searches users’ profiles for terms deemed likely to correspond to child accounts—for example, “4th grade” and “9 years old”—and submits accounts that include those terms for review and potential removal. Defendants’ keyword matching practices have proven woefully deficient. | 78. 約 2020 年以降、被告は「キーワードマッチング」を使用して、削除のために子供のアカウントを特定し てきた。被告のキーワード・マッチング・プロセスは、例えば「4年生」や「9歳」など、子供のアカウントに該当する可能性が高いと思われる用語をユーザーのプロフィールから検索し、これらの用語を含むアカウントを審査および削除の可能性のために提出する。被告のキーワード照合のやり方には、ひどい欠陥があることが証明されている。 |
79. Defendants’ human content moderators review accounts flagged as potentially belonging to children by the keyword matching process or by other methods. Similar to Defendants’ restrictive approach to parental deletion requests, the content moderators who review accounts may delete them as belonging to children only if rigid criteria are satisfied. For example, under the policy, an account can be marked as underage and deleted only if either there is an explicit admission of an age under 13 or [XXX]. | 79. 被告の人的コンテンツモデレーターは、キーワード照合プロセスまたは他の方法によって、子供のものである可能性があると判断されたアカウントを審査する。親の削除要求に対する被告の制限的なアプローチと同様に、アカウントをレビューするコンテンツモデレーターは、厳格な基準が満たされた場合にのみ、子供のものとしてアカウントを削除することができる。たとえば、このポリシーでは、13歳未満であることを明示的に認めるか、[XXX]のいずれかがある場合にのみ、アカウントを未成年としてマークし、削除することができる。 |
80. Earlier versions of the policy were even more restrictive. For example, to mark and delete an account as underage, the policy between the spring of 2020 and early 2021 required an explicit admission of age, regardless of what videos the account had posted. The pre-April 2020 version of the policy required both (i) an explicit admission of age and (ii) that [XXX]. | 80. ポリシーの以前のバージョンは、さらに制限が厳しかった。たとえば、2020年春から2021年初頭にかけてのポリシーでは、未成年とマークしてアカウントを削除するには、そのアカウントが投稿した動画の内容にかかわらず、年齢を明示的に認める必要があった。2020年4月以前のバージョンのポリシーでは、(i)明示的な年齢の告白と、(ii)[XXX]が必要であった。 |
81. Defendants' content moderators are not told why an account was flagged as possibly underage and cannot access any videos posted by the user beyond [XXX] - even though the account may have dozens or hundreds of videos revealing that the user is a child. The moderators cannot view other information about the accounts they are reviewing either, including the videos watched by the user or the accounts the user follows. If the policy's rigid criteria are not met, content moderators have no discretion to designate an account as underage; they must allow any such account to remain on the platform even if they know the account holder is in fact a child. | 81. 被告のコンテンツモデレーターは、アカウントが未成年の可能性があるとしてフラグを立てられた理由を知らされず、[XXX]以降、ユーザーが投稿した動画にアクセスすることができない。モデレーターは、ユーザーが視聴した動画やユーザーがフォローしているアカウントなど、審査対象のアカウントに関する他の情報も閲覧できない。ポリシーの厳格な基準を満たさない場合、コンテンツモデレーターはアカウントを未成年と指定する裁量を持たず、アカウント保持者が実際に児童であることがわかっていても、そのようなアカウントをプラットフォームに残すことを許可しなければならない。 |
82. Defendants have also failed to allow content moderators sufficient time to conduct even the limited review they permit. At times since entry of the 2019 Permanent Injunction, TikTok has had tens of millions of monthly active users in the United States. Meanwhile, TikTok Inc.'s content moderation team included fewer than two dozen full-time human moderators responsible for identifying and removing material that violated all of its content-related policies, including identifying and deleting accounts of unauthorized users under age 13. | 82. 被告はまた、コンテンツモデレーターが許可している限定的な審査を行うのに十分な時間を与えていない。2019年の永久差し止め命令の発令以降、TikTokは米国で数千万人の月間アクティブユーザーを獲得したことがある。一方、TikTok Inc.のコンテンツモデレーションチームには、13歳未満の無許可ユーザーのアカウントを識別して削除することを含め、同社のコンテンツ関連ポリシーのすべてに違反する素材を識別して削除する責任を負うフルタイムの人間のモデレーターが20人未満しか含まれていなかった。 |
83. During at least some periods since 2019, TikTok Inc.’s human moderators spent an average of only five to seven seconds reviewing each account flagged by a keyword to determine if it belonged to a child. | 83. 2019年以降の少なくとも一部の期間において、TikTok Inc.の人間のモデレーターは、キーワードによってフラグが立てられた各アカウントをレビューし、それが児童のものであるかどうかを判断するのに平均わずか5~7秒しか費やしていなかった。 |
84. The deficiency of Defendants’ policies is shown by the fact that regular TikTok accounts belonging to children can be easily found by searching for the same basic terms and variations used by Defendants’ keyword matching algorithm. Some of these accounts have existed for long periods—able to garner hundreds of followers and hundreds or even thousands of “likes,” a sign of approval by other TikTok users. | 84. 被告のポリシーの欠陥は、児童に属する通常のTikTokアカウントが、被告のキーワードマッチングアルゴリズムが使用するのと同じ基本的な用語やバリエーションで検索すれば簡単に見つかるという事実が示している。これらのアカウントの中には、長期にわたって存在し、数百人のフォロワーや、他のTikTokユーザーによる承認の証である「いいね!」を数百から数千も集めることができるものもある。 |
85. By adhering to these deficient policies, Defendants actively avoid deleting the accounts of users they know to be children. Instead, Defendants continue collecting these children’s personal information, showing them videos not intended for children, serving them ads and generating revenue from such ads, and allowing adults to directly communicate with them through TikTok. | 85. このような欠陥のあるポリシーを遵守することで、被告は児童であることが分かっているユーザーのアカウントを削除することを積極的に避けている。その代わりに、被告はこれらの児童の個人情報を収集し続け、児童向けでない動画を見せ、広告を配信し、その広告から収益を生み出し、大人がTikTokを通じて児童と直接コミュニケーションできるようにしている。 |
B. Accounts Referred from Video Moderation Queues | B. 動画モデレーションキューから紹介されたアカウント |
86. Many accounts that belong to children come to Defendants’ attention when one user reports another user’s video as violating one of Defendants’ policies. Those videos are then added to “video queues” and reviewed by human content moderators who review the videos to determine whether they comply with Defendants’ policies. If those content moderators encounter a video that depicts a child under 13, they can apply labels to designate suspected child users, such as “Content Depicting Under the Age of Admission” or “Suspected Underaged User.” These moderators can remove a specific video from TikTok, but they lack authority to delete or remove the account even if it is clearly the account of a child. Instead, by applying the labels, they refer the video to the separate content moderation team that assesses whether accounts belong to underage users (the “underage queue”). | 86. あるユーザーが他のユーザーの動画が被告のポリシーのいずれかに違反していると報告すると、子供のアカウントの多くが被告の目に留まる。それらの動画は「動画キュー」に追加され、被告のポリシーに準拠しているかどうかを判断するために動画を審査する人間のコンテンツモデレーターによって審査される。これらのコンテンツモデレーターは、13歳未満の児童が描写されている動画に遭遇した場合、"Content Depicting Under the Age of Admission "や "Suspected Underaged User "といった、児童の疑いがあるユーザーを指定するラベルを適用することができる。これらのモデレーターは、TikTokから特定の動画を削除することはできるが、明らかに児童のアカウントであったとしても、そのアカウントを削除・抹消する認可はない。代わりに、このラベルを貼ることで、未成年ユーザーのアカウントかどうかを評価する別のコンテンツモデレーションチーム(「未成年キュー」)に動画を照会する。 |
87. Until at least October 2022, however, this process did not work. Accordingly, when Defendants’ moderators tagged specific videos as depicting a child under 13, the associated accounts were not actually referred to the team authorized to delete the associated account. Instead, those accounts remained live, and Defendants continued to collect and retain those children’s personal information and to show them videos and messages from regular TikTok users. Due to Defendants’ recordkeeping deficiencies, detailed below, they cannot identify the number of accounts affected by this issue. The limited records Defendants do have, however, make clear that millions of accounts were involved. | 87. しかし、少なくとも2022年10月までは、このプロセスは機能していなかった。したがって、被告のモデレーターが特定の動画に13歳未満の児童が映っているとタグ付けしても、関連アカウントは実際には、関連アカウントを削除する認可を受けたチームに照会されなかった。代わりに、これらのアカウントは生きたまま残り、被告はこれらの子供の個人情報を収集・保持し続け、通常のTikTokユーザーからの動画やメッセージを見せ続けた。以下に詳述する被告の記録不備により、被告はこの問題の影響を受けたアカウント数を特定できない。しかし、被告が持っている限られた記録から、何百万ものアカウントが関与していたことは明らかである。 |
C. Accounts Identified in Quality Assurance Reviews | C. 品質保証レビューで識別されたアカウント |
88. Defendants conduct quality assurance reviews of the content moderation processes described above. The quality assurance reviews require content moderators to re-review a subset of previously reviewed accounts or videos. This process aims to identify instances in which TikTok content moderators incorrectly applied company policies to those accounts or videos. | 88. 被告は、上記のコンテンツモデレーションプロセスの品質保証レビューを行っている。品質保証レビューでは、コンテンツモデレーターに、以前にレビューされたアカウントまたはビデオのサブセットを再レビューするよう求めている。このプロセスは、TikTokのコンテンツモデレーターがこれらのアカウントまたは動画に会社のポリシーを誤って適用した事例を特定することを目的としている。 |
89. Until at least September 2022, however, when Defendants’ quality assurance analysts identified a specific account that a moderator incorrectly failed to flag for deletion as belonging to a child, Defendants did not then go back and delete the account. Instead, the account remained live. Accordingly, Defendants failed to delete numerous children’s accounts that their own quality assurance team specifically identified as belonging to children. | 89. しかし、少なくとも2022年9月までは、被告の品質保証アナリストが、モデレーターが誤って児童のものとして削除フラグを立てなかった特定のアカウントを特定した場合、被告はそのアカウントを遡って削除することはしなかった。それどころか、そのアカウントは生きたままだった。したがって、被告は、自社の品質保証チームが子供のものであると特定した多数の子供のアカウントを削除しなかった。 |
D. Accounts That Moderators Have Marked “Ban as Underage” | D. モデレーターが「未成年として禁止」とマークしたアカウント |
90. Even where accounts satisfied Defendants’ rigid criteria, were identified as belonging to children, and were marked for deletion, Defendants failed to delete many of the accounts. | 90. 被告の厳格な基準を満たし、児童のものであると識別され、削除のマークが付けられたアカウントであっても、被告はその多くを削除しなかった。 |
91. Internal communications reveal that Defendants’ employees were aware of this issue. In a September 2021 online chat, for example, employees discussed the fact that accounts were being marked as banned for underage but were not being deleted, and suggested this had been occurring since mid-July 2020. One employee noted that she was seeing this “a lot” and “I run across usually like 3-4 accounts [like that] a day,” while another noted “[t]hat shouldn’t be happening at all or we can get in trouble … because of COPPA.” 92. Even though Defendants were aware of this problem, and the 2019 Permanent Injunction required them to maintain records regarding their COPPA compliance or lack thereof, they failed to retain records documenting this issue and the accounts affected. The extremely limited records Defendants have produced to the government reveal that even for small segments of the time period at issue, at least several hundred accounts were affected. | 91. 内部コミュニケーションにより、被告の従業員がこの問題を認識していたことが明らかになった。例えば、2021年9月のオンラインチャットでは、従業員は、アカウントが未成年のために禁止されているとマークされているにもかかわらず削除されていないという事実について議論し、これは2020年7月中旬から発生していたことを示唆した。ある従業員は、このようなことが「よくある」とし、「通常、1日に3-4アカウント(のようなもの)に遭遇する」と述べた。92. 被告はこの問題を認識しており、2019年の永久差し止め命令ではCOPPAの遵守の有無に関する記録を保持するよう求められていたにもかかわらず、この問題と影響を受けたアカウントを文書化した記録を保持していなかった。被告が政府に提出した極めて限られた記録は、問題となっている期間のわずかなセグメントであっても、少なくとも数百のアカウントが影響を受けたことを明らかにしている。 |
E. Data Collected From Purportedly Deleted Accounts | E. 削除されたとされるアカウントから収集されたデータ |
93. Defendants retain children’s personal information long after they identify an account as belonging to a child and determine they should delete information related to the account. For example, Defendants retain app activity log data related to children for 18 months. | 93. 被告は、あるアカウントが子供のものであると特定し、そのアカウントに関連する情報を削除すべきであると判断した後も、子供の個人情報を長期間保持している。例えば、被告は子供に関するアプリのアクティビティログデータを18ヶ月間保持している。 |
94. Moreover, Defendants have retained children’s information in numerous database locations long after purportedly deleting their accounts. Defendants have not documented what information collected from users is saved in what locations or why, and they have been unable to explain how or why the information was in those locations, or why it was not deleted. | 94. さらに、被告は、アカウントを削除したとされる後も、多数のデータベースロケーションに子どもの情報を保持している。被告は、ユーザーから収集したどの情報がどの場所に保存されているのか、なぜ保存されているのかを文書化しておらず、なぜそのような場所に情報があったのか、なぜ削除されなかったのかを説明できないでいる。 |
95. Defendants have also failed to delete information children posted to TikTok that was later incorporated into other users’ videos, even when Defendants possessed identifiers linking the information to an account that they deleted because it belonged to a child. For example, until at least 2022, Defendants retained sound recordings of numerous children from accounts Defendants had determined belonged to children, and those sound recordings continued to appear in other users’ videos. | 95. 被告はまた、子供がTikTokに投稿し、後に他のユーザーの動画に組み込まれた情報を、子供のものであることを理由に削除したアカウントにリンクする識別子を被告が保有していた場合でも、削除しなかった。例えば、被告は少なくとも2022年まで、被告が子供のものと判断したアカウントから多数の子供の録音を保持し、それらの録音は他のユーザーの動画に表示され続けた。 |
96. Similarly, Defendants retained profile photographs of users that Defendants knew to be children. For example, TikTok allows users to include in their videos another user’s comment, which is displayed alongside the commenter’s photograph and username. When Defendants did “delete” the account of a child, that child’s comments remained in other users’ posts, along with their photograph and username. These images had unique identifiers that tied each child’s photograph, username, and comment to an account that Defendants knew had been deleted because it belonged to a child. | 96. 同様に、被告は、被告が子供であることを知っていたユーザーのプロフィール写真を保持していた。例えば、TikTokでは、ユーザーが他のユーザーのコメントを動画に含めることができ、そのコメントはコメント投稿者の写真とユーザー名とともに表示される。被告が子供のアカウントを「削除」しても、その子供のコメントは写真とユーザー名とともに他のユーザーの投稿に残っていた。これらの画像には、各子供の写真、ユーザー名、コメントを、子供のものであるために被告が削除されたことを知っているアカウントに結びつける固有の識別子があった。 |
IV. Defendants’ Violations Have Occurred on a Massive Scale. | IV. 被告の違反行為は大規模に発生している。 |
A. Defendants’ Policies Result in Millions of Children Using TikTok | A. 被告のポリシーにより、数百万人の子供がTikTokを利用している。 |
97. As discussed above, Defendants adopted and implemented inadequate and ineffective policies to stop children from creating general TikTok accounts and to remove those accounts when they were discovered. As a result, for years millions of American children under 13 have been using TikTok and Defendants have been collecting and retaining children’s personal information. | 97. 上述したように、被告は、子供たちが一般的なTikTokアカウントを作成することを阻止し、それらのアカウントが発見された場合に削除するために、不十分で効果のないポリシーを採用し、実施した。その結果、何年もの間、13歳未満の何百万人もの米国児童がTikTokを利用し、被告は児童の個人情報を収集・保持してきた。 |
98. Defendants’ internal analyses show that millions of TikTok’s U.S. users are children under the age of 13. For example, the number of U.S. TikTok users that Defendants classified as age 14 or younger in 2020 was millions higher than the U.S. Census Bureau’s estimate of the total number of 13- and 14-year olds in the United States, suggesting that many of those users were children younger than 13. | 98. 被告の内部分析によると、TikTokの米国ユーザーの数百万人は13歳未満の子供である。例えば、被告が2020年に14歳以下と分類した米国のTikTokユーザーの数は、米国国勢調査局による米国の13歳および14歳の総数の推定値よりも数百万人多く、これらのユーザーの多くが13歳以下の子供であることを示唆している。 |
99. Third-party studies shared with TikTok Inc. similarly show that in the United States and other countries, child usage of TikTok is common and large numbers of children have regular TikTok accounts. In fact, regulators in other countries, including the Netherlands, Ireland, and the United Kingdom, have fined Defendants for impermissibly collecting data from children. | 99. TikTok Inc.と共有されたサードパーティによる調査も同様に、米国やその他の国々では、子どものTikTok利用は一般的であり、多数の子どもがTikTokの正規アカウントを持っていることを示している。実際、オランダ、アイルランド、英国を含む他国の規制当局は、児童から不当にデータを収集したとして、被告に罰金を科した。 |
100. Defendants and their employees have long known that children misrepresent their ages to pass through TikTok’s age gate, and that despite other measures purportedly designed to remove children from the platform, children are ubiquitous. | 100. 被告とその従業員は、TikTokの年齢ゲートを通過するために子供たちが年齢を詐称していること、また、プラットフォームから子供たちを排除するために設計されたとされる他の措置にもかかわらず、子供たちがどこにでもいることを長い間知っていた。 |
101. In January 2020, for example, a TikTok moderator recognized that Defendants maintain accounts of children despite the “fact that we know the user is U13,” i.e., under age 13, so long as the child’s profile does not admit that fact explicitly. Another employee admitted that TikTok moderators were required to ignore any “external information” indicating that a user under review is a child. | 101. 例えば、2020年1月、TikTokのモデレーターは、「ユーザーがU13、すなわち13歳未満であることが分かっている」にもかかわらず、子供のプロフィールがその事実を明確に認めない限り、被告が子供のアカウントを維持していることを認めた。別の従業員は、TikTokのモデレーターは、審査中のユーザーが児童であることを示す「外部情報」を無視するよう求められていることを認めた。 |
102. As another example, in a July 2020 chat, one of Defendants’ employees circulated the profiles of numerous underage users he had identified “literally through one minute of scanning,” noting “[t]his is incredibly concerning and needs to be addressed immediately.” | 102. 別の例として、2020年7月のチャットで、被告の従業員の1人が「文字通り1分間のスキャンで」特定した多数の未成年ユーザーのプロフィールを回覧し、「これは信じられないほど問題であり、直ちに対処する必要がある」と指摘した。 |
103. Defendants have other methods to identify and remove children’s accounts from the general TikTok platform but do not use them for that purpose. For example, TikTok has its own age-determining technology—“grade level,” the algorithm for which is based on users’ behavior and other metrics—for purposes such as advertising. Unlike TikTok’s age gate, this method is based on observable behaviors and not solely users’ self-reported age. Defendants have not used it to attempt to identify children on the platform so that their accounts can be removed. | 103. 被告は、一般的なTikTokプラットフォームから児童のアカウントを特定し、削除する他の方法を有しているが、そのような目的で使用していない。例えば、TikTokは独自の年齢判定技術である「グレードレベル」を持っており、そのアルゴリズムは広告などの目的でユーザーの行動やその他の指標に基づいている。TikTokの年齢ゲートとは異なり、この方法は観察可能な行動に基づいており、ユーザーの自己申告年齢のみには基づいていない。被告は、アカウントを削除できるように、プラットフォーム上の児童を特定するためにこの方法を使用していない。 |
104. In a November 2019 message, a company employee told TikTok Inc.’s then-head of content partnerships, who led its relationships with major brands, that “we have two age level . . . one is age gate and one is grade level.” He continued that the age gate is “filled in by users themselves” and “many of them will fill in false information,” while “grade level [is] calculated by algorithm . . . through user’s behavior or other metrics, which are more accurate.” He went on that, for purposes of a search, “I used grade level so we will see many users under 13.” | 104. 2019年11月のメッセージで、同社の従業員はTikTok Inc.の当時のコンテンツ・パートナーシップ責任者であり、主要ブランドとの関係を率いていた人物に、"我々には2つの年齢レベルがある......1つは年齢ゲート、もう1つは学年レベルだ "と伝えた。彼は、年齢ゲートは「ユーザー自身が記入する」ものであり、「その多くは虚偽の情報を記入する」と続けた。成績はアルゴリズムによって計算される。さらに彼は、検索の目的で、"学年を使ったので、13歳以下のユーザーを多く見ることができる "と続けた。 |
105. Not only do Defendants not use their grade level technology to identify and remove children from the TikTok general platform, but they appear to have programmed grade level to avoid gaining knowledge that users were under 13. In 2020, Defendants’ lowest age group band was for ages under 15, meaning that it would not identify users as under 13 specifically. Defendants later revised this age cutoff so that the lowest age segment was under 16. | 105. 被告は、TikTokの一般的なプラットフォームから児童を特定し、排除するために学年レベルの技術を使用していないだけでなく、ユーザーが13歳未満であることを知ることを避けるために学年レベルをプログラムしているようである。2020年、被告の最も低い年齢グループ帯は15歳未満であり、13歳未満のユーザーを特定できないようになっていた。被告は後にこの年齢制限を修正し、最低年齢層を16歳未満とした。 |
B. Defendants Failed to Keep Records Required by the 2019 Permanent Injunction | B. 被告は 2019 年の永久的禁止命令で義務付けられている記録の保管を怠った。 |
106. The 2019 Permanent Injunction required TikTok Inc. and TikTok Ltd. to create and maintain all records necessary to demonstrate full compliance with the 2019 Permanent Injunction, including records to show full compliance with COPPA and the COPPA Rule. Defendants have failed to create and maintain all such records. | 106. 2019年恒久的差止命令は、TikTok Inc.とTikTok Ltd.に対して、COPPAとCOPPA規則の完全遵守を示す記録を含め、2019年恒久的差止命令の完全遵守を示すために必要なすべての記録を作成し、維持することを要求した。被告はそのような記録をすべて作成・維持しなかった。 |
107. First, when Defendants identified issues concerning their COPPA compliance, they frequently failed to maintain records that would be needed to show how many accounts were affected, which accounts were affected, and what, if anything was done to remedy the issues. For example, as noted above, Defendants did not maintain records regarding accounts that were referred to the underage queue from the video queue but not actually reviewed, or regarding their failure to delete children’s accounts that had been designated as underage. | 107. 第一に、被告はCOPPA遵守に関する問題を特定した場合、どれだけのアカウントが影響を受けたか、どのアカウントが影響を受けたか、問題を改善するために何が行われたかを示すために必要な記録を維持することをしばしば怠った。例えば、上述のように、被告は、ビデオキューから未成年者キューに参照されたが実際には審査されなかったアカウントに関する記録や、未成年者として指定された子供のアカウントを削除しなかったことに関する記録を保持していなかった。 |
108. Further, Defendants have failed to create or maintain records sufficient to document their moderators’ review of regular accounts identified as potentially belonging to children and the actions taken as a result. When asked by the United States for documentation of certain specific accounts of children, Defendants initially produced no records and claimed their account records were “not intended to be reviewed in the ordinary course of business.” The records Defendants subsequently produced do not make it possible to systematically determine what action has been taken on specific accounts and why. | 108. さらに、被告は、児童のものである可能性があると特定された通常のアカウントのモデレーターによるレビューと、その結果取られた措置を記録するのに十分な記録を作成または維持していない。米国から特定の児童のアカウントに関する文書提出を求められた被告は、当初は何の記録も提出せず、アカウント記録は "通常の業務で確認されることを意図したものではない "と主張した。被告がその後提出した記録では、特定の口座にどのような措置が取られたか、またその理由を体系的に判断することはできない。 |
109. Additionally, Defendants’ employees use Feishu (sometimes referred to as Lark), a ByteDance Ltd. corporate messaging and office collaboration platform, to communicate with each other. Defendants enabled features in Feishu, such as one called “recall,” that allow employees to easily erase internal communications, leaving no record of the communication. Employees used the feature to delete messages permanently, including, potentially, messages relevant to compliance with the 2019 Permanent Injunction and COPPA. Defendants did not change this practice until at least May 2023. | 109. さらに、被告の従業員は、ByteDance Ltd.の企業向けメッセージングおよびオフィスコラボレーシ ョンプラットフォームであるFeishu(Larkと呼ばれることもある)を使用して互いにコミュニケーション をとっている。被告はFeishuの「リコール」と呼ばれる機能など、従業員が社内のコミュニケーションを簡単に消去できる機能を有効にし、コミュニケーションの記録を残さないようにしていた。従業員はこの機能を使って、2019年の永久差し止め命令とCOPPAの遵守に関連するメッセージを含む可能性のあるメッセージを永久に削除した。被告は少なくとも2023年5月までこの慣行を変更しなかった。 |
110. Defendants enabled another feature in Feishu that allows employees to choose when their communications will be deleted. | 110. 被告は、従業員が自分のコミュニケーションをいつ削除するかを選択できるFeishuの別の機能を有効にした。 |
111. A late 2021 risk assessment for Defendant ByteDance Ltd. found that the company was incapable of extracting accurate and usable records about and from internal Lark messages. The risk assessment found that because they used Feishu, Defendants lacked a reliable way to memorialize the vast majority of employees’ business communications and could not assure preservation in compliance with government investigations and litigation subpoenas. | 111. 被告ByteDance Ltd.の2021年後半のリスクアセスメントでは、同社は社内のラークメッセージに関する正確で使用可能な記録を抽出できないことが判明した。リスクアセスメントによると、被告はFeishuを使用していたため、従業員のビジネスコミュニケーションの大部分を記録する信頼できる方法がなく、政府の調査や訴訟の召喚状に従って保存することができなかった。 |
C. TikTok Inc. Misrepresented its Remedial Conduct to the FTC | C. TikTok Inc. はFTCに対し、その救済行為について虚偽の説明を行った。 |
112. On June 12, 2020, TikTok Inc. stated to the FTC that “[o]n May 11, 2019 . . . [it] took offline all US accounts that did not go through [its then-recently imposed] age gate. These accounts . . . were not accessible to the Company. TikTok did not use or disclose the information for any purpose.” TikTok Inc. also stated that it “completed on May 24, 2020” the deletion of children’s data as required by the 2019 Permanent Injunction. V Pappas, as “GM of TikTok,” certified on TikTok Inc.’s behalf under penalty of perjury that the prior statement was true and correct. | 112. 2020年6月12日、TikTok Inc.はFTCに対して、「2019年5月11日に.[同社は)2019年5月11日に、(当時課せられていた)エイジゲートを通過しなかったすべての米国アカウントをオフラインにした。これらのアカウントは......当社にはアクセスできなかった。TikTokはいかなる目的にも情報を使用または開示しなかった。" また、TikTok Inc.は、2019年の永久差し止め命令で要求された児童データの削除を「2020年5月24日に完了した」と述べた。V Pappasは、「TikTokのGM」として、偽証罪に基づき、TikTok Inc.を代表して、先の声明が真実かつ正確であることを証明した。 |
113. After follow-up inquiry by the FTC, TikTok Inc. acknowledged that its June 12, 2020, claims had been false. In fact, TikTok Inc. had retained and been using data that it previously represented it “did not use,” was “not accessible” to it, and was “delet[ed].” That data included personal information and other data of child, teen, and adult users, including IP addresses, device IDs, device models, and advertising IDs. | 113. FTCによる追跡調査の後、TikTok Inc.は2020年6月12日の主張が虚偽であったことを認めた。実際、TikTok Inc.は、以前は「使用していない」、「アクセスできない」、「削除した」と表明していたデータを保持し、使用していた。そのデータには、IPアドレス、デバイスID、デバイスモデル、広告IDを含む、子供、ティーン、成人ユーザーの個人情報やその他のデータが含まれていた。 |
* * * | * * * |
114. Based on the facts and violations of law alleged in this Complaint, the United States has reason to believe that Defendants are violating or are about to violate COPPA, the COPPA Rule, and the FTC Act. | 114. 本訴訟で申し立てられた事実および法律違反に基づき、米国は被告がCOPPA、COPPA規則、およびFTC法に違反している、または違反しようとしていると信じるに足る理由がある。 |
VIOLATIONS OF COPPA, THE COPPA RULE AND THE FTC ACT | COPPA、COPPA規則およびFTC法の違反 |
115. Paragraphs 1 through 114 are incorporated as if set forth herein. | 115. 第 1 項から第 114 項は、ここに記載されているかのように組み込まれる。 |
116. Defendants are “operators,” under 16 C.F.R. § 312.2, and thus subject to the COPPA Rule. | 116. 被告は連邦規則集第16編第312.2条に基づく「事業者」であり、COPPA規則の対象となる。 |
117. Defendants collect personal information from children through the TikTok app and website, which are both online services or websites directed to children. Defendants have actual knowledge that they are collecting personal information from children. | 117. 被告は、子供向けのオンラインサービスまたはウェブサイトであるTikTokアプリおよびウェブサイトを通じて子供から個人情報を収集する。被告は、児童から個人情報を収集していることを実際に知っている。 |
118. In numerous instances, in connection with the acts and practices described above, Defendants collected, used, and disclosed personal information from children in violation of COPPA and the COPPA Rule, including by: | 118. 上記の行為および慣行に関連して、被告は多くの場合、以下を含むCOPPAおよびCOPPA規則に違反して児童から個人情報を収集、使用、開示した: |
a) Failing to provide notice on their website or online service of what information they collect from children, how they use such information, their disclosure practices, and other content required by the Rule, in violation of Sections 312.3(a) and 312.4(d) of the Rule, 16 C.F.R. §§ 312.3(a), 312.4(d); | a) 規則の第312.3条(a)および第312.4条(d)に違反して、児童から収集する情報、当該情報の使用方法、開示慣行、および規則が要求するその他の内容について、ウェブサイトまたはオンラインサービスで通知を提供しなかった; |
b) Failing to make reasonable efforts to provide direct notice to parents of what information they collect online from children, how they use such information, their disclosure practices for such information, and other content required by the Rule, in violation of Sections 312.4(b) and 312.4(c) of the Rule, 16 C.F.R. §§ 312.4(b)–(c); | b) 規則の第312.4条(b)および第312.4条(c)、連邦規則集第16編第312.4条(b)-(c)に違反して、児童からオンラインで収集する情報の内容、当該情報の使用方法、当該情報の開示慣行、および規則が求めるその他の内容について、保護者に直接通知する合理的な努力を怠った; |
c) Failing to obtain consent from parents before any collection, use, or disclosure of personal information from children, in violation of Sections 312.3(b) and 312.5(a)(1) of the Rule, 16 C.F.R. §§ 312.3(B), 312.5(a)(1); | c) 規則の第312.3条(b)および第312.5条(a)(1)(連邦規則集第16編第312.3条(B)、第312.5条(a)(1))に違反して、児童の個人情報を収集、使用、開示する前に保護者から同意を得なかった; |
d) Failing to provide a reasonable means for a parent to refuse to permit the further use or maintenance of any personal information collected from a child, in violation of Sections 312.3(c) and 312.6(a)(2)-(3) of the Rule, 16 C.F.R. §§ 312.3(c), 312.6(a)(2)-(3); | d) 規則の第312.3条(c)および第312.6条(a)(2)-(3)に違反して、親が児童から収集した個人情報のさらなる使用または保守を拒否するための合理的な手段を提供しない; |
e) Failing to provide parents the opportunity at any time to direct Defendants to delete personal information collected from children, in violation of Section 312.6(a)(2) of the Rule, 16 C.F.R. § 312.6(a)(2); | e) 規則の第312.6条(a)(2)に違反して、子どもから収集した個人情報を削除するよう被告に指示する機会をいつでも保護者に提供しなかった; |
f) Failing to delete, at the request of parents, personal information collected from children, in violation of Section 312.6(a)(2) of the Rule, 16 C.F.R. § 312.6(a)(2); | f) 規則のセクション312.6(a)(2)、16 C.F.R.§312.6(a)(2)に違反して、児童から収集した個人情報を保護者の要求に応じて削除しないこと; |
g) Retaining personal information collected online from children for longer than reasonably necessary to fulfill the purpose for which the information was collected, in violation of Section 312.10 of the Rule, 16 C.F.R. § 312.10; | g) 規則第312.10条(連邦規則集第16編第312.10条)に違反して、児童からオンラインで収集した個人情報を、情報を収集した目的を果たすために合理的に必要な期間を超えて保持すること; |
h) Failing to timely delete personal information collected from children in order to respond on a one-time basis to a specific request, in violation of Section 312.5 of the Rule, 16 C.F.R. § 312.5(c)(3); | h) 特定の要求に1回限りで対応するために、規則第312.5条(連邦規則集第16編第312.5条(c)(3))に違反して、子どもから収集した個人情報を適時に削除しない; |
i) Failing to limit their collection of children’s personal information for which they lacked verifiable parental consent to only the limited information permitted by the Rule’s exceptions to prior parental consent requirements, in violation of Section 312.5(c) of the Rule, 16 C.F.R. § 312.5(c); | i) 検証可能な親の同意が得られていない子供の個人情報の収集を、事前の親の同意要件に対する規則の例外によって許可される限定的な情報のみに制限することを怠り、規則第312.5条(c)(連邦規則集第16編第312.5条(c))に違反した; |
j) Failing to limit use of children’s personal information for which they lacked verifiable parental consent to solely the purposes permitted by the Rule (such as the use of a persistent identifier for the sole purpose of providing support for the internal operations of their website or online service, permitted by Section 312.4(c)(7), of the Rule) in violation of Section 312.5(c) of the Rule, 16 C.F.R. § 312.5(c); and | j) 規則のセクション312.5(c)(16 C.F.R.§312.5(c))に違反して、検証可能な親の同意がない子どもの個人情報の使用を、規則で認められている目的(規則のセクション312.4(c)(7)で認められている、自社のウェブサイトまたはオンラインサービスの内部運用のサポートを提供することのみを目的とした永続的識別子の使用など)のみに限定しなかった場合。 |
k) Conditioning children’s participation in the online service by requiring the disclosure of more personal information than is reasonably necessary to participate, in violation of Section 312.7 of the Rule, 16 C.F.R. § 312.7s. | k) 規則第312.7条(連邦規則集第16編第312.7s)に違反して、参加に合理的に必要な以上の個人情報の開示を要求することにより、オンラインサービスへの子どもの参加を条件付ける。 |
119. Pursuant to Section 1303(c) of COPPA, 15 U.S.C. § 6502(c), and Section 18(d)(3) of the FTC Act, 15 U.S.C. § 57a(d)(3), a violation of the Rule constitutes an unfair or deceptive act or practice in or affecting commerce, in violation of Section 5(a) of the FTC Act, 15 U.S.C. § 45(a). | 119. COPPA 第 1303 条(c)(合衆国法律集第 15 編第 6502 条(c))および FTC 法第 18 条(d)(3)(合衆国法律集第 15 編第 57a 条(d)(3))に従い、本規則の違反は、FTC 法第 5 条(a)(合衆国法律集第 15 編第 45 条(a))に違反し、商取引において、または商取引に影響を与える、不公正または欺瞞的な行為または慣行を構成する。 |
120. Defendants violated the Rule as described above with the knowledge required by Section 5(m)(1)(A) of the FTC Act, 15 U.S.C. § 45(m)(1)(A). | 120. 被告は、FTC 法第 5 条(m)(1)(A)(合衆国法律集第 15 編第 45 条(m)(1)(A))が要求する知識をもって、上記の通り規則に違反した。 |
121. Each collection, use, or disclosure of a child’s personal information in which Defendants violated the Rule in any of the ways described above constitutes a separate violation for which Plaintiff seeks monetary civil penalties. 15 U.S.C. § 45(m)(1)(A). | 121. 被告が上記のいずれかの方法で規則に違反した児童の個人情報の収集、使用、開示のそれぞれは、原告が金銭的な民事罰を求める個別の違反となる。合衆国法律集第 15 編第 45 条(m)(1)(A)。 |
122. Each day Defendants maintained data collected in violation of the Rule, or otherwise continued to collect such data, is a continuing failure to comply with the Rule and constitutes a separate violation under 15 U.S.C. § 45(m)(1)(C). | 122. 被告が規則に違反して収集したデータを維持した日、またはそのようなデータの収集を継続し た日は、継続的な規則不遵守であり、合衆国法律集第 15 編第 45 条(m)(1)(C)に基づく個別の違反となる。 |
123. Section 5(m)(1)(A) of the FTC Act, 15 U.S.C. § 45(m)(1)(A), as modified by Section 4 of the Federal Civil Penalties Inflation Adjustment Act of 1990 and Section 701 of the Federal Civil Penalties Inflation Adjustment Act Improvements Act of 2015, 28 U.S.C. § 2461, and Section 1.98(d) of the FTC’s Rules of Practice, 16 C.F.R. § 1.98(d), authorizes this Court to award monetary civil penalties of not more than $51,744 for each violation of the Rule assessed after January 10, 2024. | 123. FTC 法第 5 条(m)(1)(A)(合衆国法律集第 15 編第 45 条(m)(1)(A))は、1990 年連邦民事罰金インフレ調整法第 4 条および 2015 年連邦民事罰金インフレ調整法改善法第 701 条(合衆国法律集第 28 編第 2461 条)により修正されたものである。 S.C. § 2461、および FTC の業務規則 16 C.F.R. § 1.98(d) の第 1.98(d) 項により修正されたものであり、当裁判所は、2024 年 1 月 10 日以降に査定された本規則の各違反に対して、51,744 米ドル以下の金銭的民事罰則を認可する。 |
CONSUMER INJURY | 消費者被害 |
124. Consumers are suffering, have suffered, and will continue to suffer substantial injury as a result of Defendants’ violations of the COPPA Rule. Absent injunctive relief by this Court, Defendants are likely to continue to injure consumers and harm the public interest. | 124. 消費者は、被告によるCOPPA規則違反の結果、実質的な損害を被っており、今後も被り続ける。当裁判所による差止命令による救済がなければ、被告は引き続き消費者を傷つけ、公益を害する可能性が高い。 |
PRAYER FOR RELIEF | 請求要旨 |
125. Wherefore, Plaintiff requests that the Court: | 125. よって、原告は当裁判所に対し以下を要請する: |
A. Enter a permanent injunction to prevent future violations of the COPPA Rule by Defendants; | A. 被告による将来のCOPPA規則違反を防止するための終局的差止命令を出すこと; |
B. Impose civil penalties on each Defendant for every violation of the COPPA Rule; and | B. COPPA規則に違反した各被告に民事罰を課すこと。 |
C. Award any additional relief as the Court determines to be just and proper. | C. 当裁判所が正当かつ適切と判断する追加救済を与える。 |
Comments