Hawk
May 7, 2026 • 8 min read
Digg(インターネットの黎明期における「インターネットのホームページ」)は、2000年代初頭に設立されたソーシャルニュースアグリゲーターです。そのバリュープロポジションは、ユーザーがリンクを投稿し他者のコンテンツに賛否を投票するという、クラウドソーシング型の編集・キュレーション判断にありました。急速に大きな成功を収め、数百万人のメンバーを集めましたが、2010年の賛否が分かれたリデザインがRedditへの大規模な移住を引き起こし、最終的にはプラットフォームの衰退につながりました。その数年後、部分的に売却されています。
時は2026年1月、Diggが帰ってきました。ノスタルジアと楽観主義の組み合わせに支えられた復活であり、私は心から好感を持ちました。
CEOのジャスティン・メッツェル氏は次のように発表しました……
「……信頼シグナル、モデレーションの透明性、AIによるスパムへの防御に焦点を当てて再ローンチします」
残念ながら、計画通りには進みませんでした……
ベータ版のローンチからわずか数時間後、SEOスパマーたちがプラットフォームを標的にしました。Diggは、押し寄せるスパムの規模や速度に対する備えができていませんでした。
2ヶ月後、彼らは再び閉鎖し、「前例のないボット問題」を理由に挙げました。
前例がないのかもしれません。しかし、予期できなかったのでしょうか?
私にはそうは思えません。
Diggの高いドメイン評価は磁石のように機能し、SEOの機会を利用しようとする自動スパムや偽アカウントによってサイトはたちまち圧倒されました。しかし今回の衰退の直接的な原因は、ボットそのものではなく、現代的なモデレーションインフラが欠如していたことにあると私は考えています。
Diggは、アイデンティティ、エンゲージメント、モデレーションのシグナルを攻撃下でも信頼できる状態に保つための十分なシステムが整わないまま、ランキングベースのコミュニティプロダクトをローンチしました。本当の問題はシステムレベルでの対立的な信頼にあったにもかかわらず、コンテンツのモデレーションに終始していたのです。
Diggは多くの人に愛されたプラットフォームであり、その復活を楽しみにしていました。だからこそ、2度目の衰退の原因を「悪化したインターネット」のせいにしたくなるのは理解できます。
しかしそれは、この結末が避けられなかったものであり、他のソーシャルおよびコミュニティプラットフォームにとっても避けられないことを意味します。
Discourseでは、そうは考えていません。
デッドインターネットへようこそ
デッドインターネット理論はもはや理論ではないと、率直に認めます。AIツールはボットの作成を極めて容易にし、自動スパムをより安く、速く、そして高度なものにしました。人間がほぼ人間のように書くボットにかき消されていくという、急速に拡大する現実の中にいます。
そしてそこに、Diggの最新の崩壊の核心があります。人間と操り人形を区別できなくなったことで生じた、信頼性の危機です。
「これはDiggだけの問題ではありません。インターネット全体の問題です。しかし、信頼こそがプロダクトであるがゆえに、私たちはより大きな打撃を受けました。目にしている投票、コメント、エンゲージメントが本物だと信頼できなくなったとき、コミュニティプラットフォームの基盤は失われます。」
投票が本物であるという信頼が誰にも持てないという単純な事実が、コミュニティの基盤を揺るがしました。AIの時代においてより信頼性の高いソーシャル体験を約束して再ローンチされたプラットフォームにとって、プラットフォーム上の活動が実際に人間によるものであることを証明できなかったというのは……少々皮肉なことです。
Diggが犯した過ち
Diggの創設者たちはスパムの状況(スパムスケープ?)を過小評価し、現在の脅威ではなく過去10年間の脅威に対応するように設計されたツールでローンチしました。メッツェル氏はDiggの開発戦略を「飛びながら飛行機を作る」と表現しました。これは、スピード重視の機能開発と、必要ではあるが往々にして時間のかかる安全で信頼性の高い基盤インフラ構築との、永遠の緊張関係です。
実際のところ、このプラットフォームには能動的な検知機能が一切なく、単純にスケールしない(そしてスケールできない)リアクティブな人手によるモデレーションに依存していました。認証レイヤーの不足とアンチシビル機構の欠如により、偽アカウントの作成が容易になっていました。しかしDiggはAIによる対抗手段を実装する代わりに、大量の自動ボットを手動レビューで封じ込めようとしました。不十分なレート制限が大量の自動投稿を可能にし、問題をさらに悪化させました。
「ボットが問題の一部であることはわかっていましたが、どれほどの規模、高度さ、速さで私たちを見つけ出すかを理解していませんでした。数万件のアカウントをBANしました。内部ツールや業界標準の外部ベンダーも導入しました。しかし、それでも十分ではありませんでした。」
ベータ段階では、ユーザーは内部で管理された少数のコミュニティのみに制限されていました。そして公開ローンチと同時に、Diggは安全策が整わないままモデレーションを即座に分散化しました。
ユーザー作成のコミュニティが開放され、コミュニティマネージャーが公開ログとともに独自のルールを設定しました。自己モデレーションで十分という致命的な思い込みのもと、事実上コミュニティの断片化を加速させたのです。しかし経験豊富なモデレーターも、確立されたルールや規範も、文書化されたモデレーションフレームワークも存在せず、プラットフォームは悪用に対して完全に無防備な状態でした。
ボット進化という問題
2010年代の大半を費やして、ボットは基本的な操作を自動化する粗いスクリプトから、やや人間らしい「ソーシャルスパムボット」へと進化しました。しかし現在の10年はすでに生成AIの支配下にあり、変化の速さがその洗練度の差を極めて大きなものにしています。
言語品質、行動のリアリティ、速度、規模における進歩により、回避的かつ協調的な攻撃はより効果的になっています。これが、Diggが再ローンチした際の環境でした。1時間に数千件作成されるアカウントは封じ込めを極めて困難にし、モデレーションのパターンを学習してリアルタイムで対応する適応型ボットが問題をさらに深刻にしました。
これはまさに軍拡競争であり、ますます高度化する自動化に対してプラットフォームが人間らしさを保つための戦いを続けています。
オープンなプラットフォームが特に脆弱な理由
オープンさは特徴であると同時にリスクでもあります。摩擦のないアカウント作成は人間の参加障壁を下げますが、一方でプラットフォームを悪用にさらしやすくもします。人間とエージェント型システムを確実に区別する手段がなければ、基盤となる仕組みが崩れ始めます。民主的な投票システムは操作の格好の標的となり、無料のコンテンツ作成はスパムにコスト障壁をなくし、バイラルな仕組みはエンゲージメントアルゴリズムを操れる協調型ボットネットワークに対して特に脆弱です。
ボットネットワークはすべての人を騙す必要はなく、第一印象を歪めるだけで十分です。
Redditのような既存プレイヤーが生き残っているのは、定着したネットワーク効果のおかげです。ボットはノイズに吸収されるか、規模によって希薄化されます。しかし新しいコミュニティにとって、このジレンマははるかに深刻です。システム自体への信頼を犠牲にすることなく、オープンさの恩恵を保つにはどうすればよいのでしょうか?
Discourseのアプローチ:多層防御
「小さな信頼シグナルを積み重ねていき、それらすべてを意味のある何かにまとめていく」というDiggの計画は抽象的には説得力がありましたが、現代のインターネットは容赦がありません。
Discourseは真空の中でローンチしたわけではなく、リスクを理解したうえで最初からプロダクトに多層防御を組み込みました。まず、新規アカウントに対してメール認証を必須とすることで、入口に戦略的な摩擦を設けています。そこからAIスパム検知が、投稿を一切読まずにリッチなプロフィールを完成させるといった不審な行動パターンを識別します。これは能動的かつ行動ベースの検知であり、多くの負荷を担っていますが、常にループの中に人間が存在します。AIがフラグを立て、人間が判断するのです。
最も強力な防御レイヤーは、プロダクトの創設当初から組み込まれているトラストレベルシステムです。これは獲得型の権限フレームワークです。新規ユーザーはコミュニティ内で信頼を積み重ねる間はサンドボックス化されており、即座の信頼獲得を不可能にし、悪用に対して大きな摩擦を生み出します。ボットは長期的な評判を容易には構築できないからです。
大量の自動操作を防ぐレート制限や強固なコミュニティ報告フレームワークなどの追加レイヤーにより、信頼性を偽ることがはるかに難しい環境が実現されています。
実践におけるAIスパム検出
明るい兆しとして、悪用をより巧妙にしているのと同じテクノロジーが、正しく実装されれば、検出をスケーラブルにしています。AIパターン認識は、先ほどのプロフィールの例のように、個々のアクションが正常に見えても、統計的に異常なシグナルを検知することで機能します。AIコンテンツ分析は膨大な量のコンテンツを取り込み、AIが生成したテキストに関連する特徴をスキャンして、追加の人間によるレビューのためにフラグを立てます。
ネットワーク分析は、アカウント同士がどのように関連して行動しているかを調べることで、個々のアカウントを超えて検出の範囲を広げ、組織的なボットリングの検出を可能にします。ベロシティ監視は、機械的なスピードでの投票や評判を築くために設計された組織的なソックパペットキャンペーンなど、異常な投稿パターンを検知するのに役立ちます。さらに、これらのシステムが新しい戦術に継続的に学習・適応する能力を加えると、かなり強力な最初の防衛線のように見えてきます。
まさにDiggが必要としていたものです。
人間によるレビューが依然として重要な理由
AIは大規模なパターンを検出できますが、文脈はまだ重要です。意図、ニュアンス、そして実際の悪質な行為と単に普通でない行為との違いを解釈するには、人間の判断が必要です。AIは非ネイティブスピーカーの不自然な言い回しにフラグを立てることがあるため、誤検知を防ぐためにヒューマン・イン・ザ・ループを持つことが重要です。また、人間にはコミュニティ固有の文脈を理解できるという利点があり、規範、トーン、境界線、そして通常のエンゲージメントパターンを把握しています。
さらに重要なのは、人間は透明性と説明責任を果たせるということです。モデレーションの決定に責任を持ち、なぜその決定がなされたかを説明できる担当者を置くことは、信頼を構築する上で不可欠です。
誰もが、すべてのプラットフォームが必要としているのはバランスです。スケールのための自動化と、判断のための人間です。
他のプラットフォームが犯す過ち
そのバランスがなければ、物事は悪化する可能性があり、それは急速に起こり得ます。人間による監視がなければ、AIはミスを犯し、それが積み重なって信頼を損ないます。しかし、Diggは逆の問題も示しました。純粋な人間によるモデレーションは、現代の脅威レベルにスケールアップできないということです。
よくある間違いは、サインアップ時に意味のある方法で人物確認を行わず、すべてのユーザーを等しく信頼できると扱うことです。新しいアカウントに自動的に完全な権限が付与されると、複数の攻撃ベクターへの即時アクセスが可能になります。
手動のモデレーションは、各スパム投稿を個別に扱うため、パターンを見逃します。事後対応のモデレーションに依存した安全でない環境では、被害半径が非常に大きいため、人間が介入する頃には、実際の損害と評判へのダメージの多くがすでに発生しています。
失敗した場合のコスト
最初の印象が歪められると、ユーザーの流出が続きます。サインアップ数の減少から始まり、プラットフォームがスパムの温床として評判を得るにつれ悪化し、その後の影響が勢いを増します。広告主は、環境を信頼できなくなり、それとの関連によるレピュテーションリスクを避けたいため、支出を引き上げ始めます。検索エンジンがサイトのランクを下げ始めるにつれてSEOのペナルティが蓄積し、実際の人間による発見が弱まり、負の連鎖が加速します。
警告は明確です。信頼インフラへの投資を怠るプラットフォームには、Diggと同じ運命が待っている可能性があります。
持続可能なモデレーションの構築
持続可能なモデレーションはインフラから始まります。プラットフォームは「モデレーション」を実施可能なシステムに変えられるツールを必要としており、早期の投資が大きな違いをもたらします。これらの機能はプラットフォームの設計に組み込まれていなければなりません。一部には後付けが難しいためですが、主な理由は、Diggが示したように、初日から実際に必要になるからです。
モデレーションだけでは、大規模なボット攻撃を止めるには遅すぎます。実際の作業は、そもそも悪用がフロントドアを通り抜けないよう設計されたシステムによって、より早い段階で行われます。重要なのは多層防御であり、複数のシステムが連携して機能することです。アイデンティティ検証、蓄積された信頼フレームワーク、AIによるトリアージはすべて、コンテンツモデレーションの段階より前に行われるべきです。コンテンツがその段階に到達したら、モデレーターは適切なツールと迅速に行動する権限を持っている必要があります。
スケーラブルなモデレーションはコミュニティとのパートナーシップに依存しています。メンバーを防衛システムの積極的な一部にすることです。何らかのフラグシステムを通じたモデレーションのクラウドソーシングは、コミュニティと共にスケールし、同時にコミュニティの文化的規範と価値観を強化します。
最後の、そして私が最も重要と主張する層は、継続的な適応です。ボットの戦術は進化し、私たちの防衛もそれに対応して進化しなければなりません。私たちは引き続き、オープンソースであり続けることがAIを悪用する悪意ある行為者に対するより良い答えであると信じており、スパム・ボットとの戦いも同様です。
コミュニティ構築者へのレッスン
私たちは今、オンラインの信頼性が技術的な前提条件となった世界に生きています。コミュニティのブートストラッピングは日々難しくなっています。なぜなら、入口での摩擦がすでにない限り、信頼性の問題が今やコールドスタートの問題の一部になっているからです。コミュニティ構築者にとって、それは信頼を必要最低限の条件として扱うことを意味します。かつての課題は人々に参加してもらうことでしたが、今は到着した際に実際の人間だけが入れるようにすることです。
そのためには、コミュニティは実際に必要になる前に防衛策に投資し、構築しなければなりません。モデレーションインフラはもはや任意ではありません。飛行中に機体を組み立てながらボットの脅威を無視すると、着陸する機会が永遠に来ないかもしれません。
Diggが2度目の閉鎖を迎えることは残念です。
そして、彼らの創業者たちには敬意しかありません。
彼らのプラットフォームは、私がインターネットについて好きになった多くのものを体現していましたし、彼らはオープンウェブについて理想主義的な見解を持っていたと思います。それは私も信じるものです。
残念ながら、2026年のインターネットには、その理想主義を和らげる現実主義がある程度必要だと思います。
原文はこちら:
Good Loopでは、Discourseのセルフホスティングを安価で提供しています。開発元であるCDCK社の協力のもと、公式ブログ記事の翻訳・公開など、日本での普及にも努めています。

