ウェブ情報の歴史的価値と情報操作

ついこの間、とある海外の有名メディアによる新型コロナウィルス関連の電子版ニュースを読みました。かなり長い記事だったのですが、書かれていることはほとんどが既に報道されている事実関係。

独自の考察らしきものや新しいデータも特になく、何を言いたい記事なのかと疑問に思っていたら、一箇所だけ「某国は非常に素晴らしい対応をした」と書かれていました。

しかし、私がこれまでたくさんの報道を読んだ限り、その国の対応は「素晴らしかった」という一言で片付けられるようなものではなく、むしろ批判が渦巻いていたものです。

そこで考えたのは、この記事の目的は大量のありきたりの事実を並べた中に、この「某国は素晴らしかった」を潜り込ませ、あたかもそれが事実であるかのように思わせることだろうということ。

しかし、新しい感染症が広がっている最中のリアルタイムでこの記事を読んでいる人は、まだ記憶も新しいし、こんなことを書かれても「おかしい。偏向している」としか思わないでしょう。実際、記事に対する読者のコメント欄にもそういう意見がたくさんありました。

でもこの記事を書いた人も、そんなことは十分承知しているはず。

ということは、この記事の真の意図は現代のリアルタイムでの世論誘導を目的としているのではなく、何年もしてから、つまり歴史的考察に入ったような段階での事実認識を操作することではないかと思いました。

このような記事をできるだけ長くweb上に掲載し、一方では、この記事に反するような内容が書かれたものは、可能であればこっそりと削除していくということです。

インターネットの上にある情報は、つねに流動しています。一度書かれたwebページも、時間とともに変更、更新されていきます。普通の人は常に、いま現在閲覧することができるweb情報しか見ないでしょう。その限りにおいては、この手法は十分に意味がありそうです。

しかし、もし過去の様々な時点でのインターネット上の情報が、その時のスナップショット(ある瞬間のコピー)として記録されていれば、そういう手法の裏をかくことができるし、将来とても貴重な歴史資料にもなるのではないでしょうか。

そう思って調べてみたら、しっかりとありました。アメリカにあるInternet ArchiveというNPOのようです。日本の国立国会図書館も紹介ページを持っているので、かなりしっかりやっているんだろうと思います。ただし、現段階では全文検索ができないなどの制約もあるようです。

ただ、仮にそういう団体がなくても、たぶんGoogleがやっているだろうとは前からぼんやりと考えていました。

Googleなどの検索エンジンは、webページを巡回してテキストや画像などを収集する「クローラー(crawler=這うもの)」と呼ばれるプログラムを使ってwebの情報を収集し、それを元に検索のための巨大なデータベースを作っているそうです。だから、あんなに早く検索結果を返してくるということです。

つまり、検索エンジンを運営している会社には、世界中のwebページのかなりの部分の情報が蓄えられているということ。

そして、webが更新されたり削除されたりしても、おそらくは上書きするのではなく(=以前のデータを消去するのではなく)、過去のデータを持ったまま、どんどん新しいデータを積み重ねていくんじゃないかと思います。確認はできませんが。

結局実態的には、前述のNPOが蓄積しているのと同様のデータは、Googleなどの検索エンジンを運営する会社は持っているんだろうと私は想像しています。

法的な問題など色々あると思いますが、こういう会社が将来、歴史家やその他のなんらかの理由からデータの利用を求められた時には、ぜひ何の操作もせずに、ありのままの時系列のデータを提供してほしいものです。

そうすれば、その時々の世論が生き生きと把握できたり、もし、とある主体にとって都合が悪いページがある時点から続々と削除されていれば、そういう操作が行われたことも判明します。

しかし、逆に考えるとこのデータの使い方次第では、将来歴史を操作できるということですよね。そんなことはあって欲しくはありませんが、現実的には極めて起こる可能性が高いことだと思います。

そう考えると、日本も検索エンジンとは言わずとも、webの時々の情報を記録していくべきではないかと思います。

日本自身が将来歴史を操作する可能性ももちろんあると思いますが、その危険性を考えつつも、少なくとも将来外からおかしな歴史観が主張され始めた時に、それに反論するための材料は持っておいた方が良いのではないでしょうか。

またまた、そう思って調べてみたら、確かに日本でもそういう動きがあったようです。「国産検索エンジン開発が頓挫した先にあるもの」という記事が見つかりました。このタイトルが示すように結局失敗したようです。

ただし、この記事に書かれている危惧は、検索エンジンがもたらすビジネスへの影響や偏向した情報提供の可能性についてです。

こうやってwebページを作り始めて、私もインターネットを利用する上での危うさがとてもよくわかりました。過去に中国に住んだ際には、情報のフィルタリングも身をもって経験しています。

しかし、そういうリアルタイムの検索に関する危惧に加えて、私は長期的な視野で、web情報の歴史的価値にも目を向けるべきではないかと思います。

将来、「検索では見えてこないけれど、過去に蓄積されたweb情報の変遷を調べてみると全く異なる歴史の様相が見えてきた」ということは十分起こり得るはず。

そのためにも、web情報の時々のスナップショットを蓄積しておくことはとても重要ではないでしょうか。Internet Archiveがやっているからいいのかもしれませんが、私は国が100%税金でやっても良いのではないかと思うほどです。

重要なのは、情報の蓄積とともに、それをいろんな角度から詳しく分析できるツールの開発が必要なこと。ツールが良ければ、蓄積した情報の価値は飛躍的に高まると思います。

昨年から、日本のいくつかの大手メディアの報道に、ものすごく違和感を覚えるようになりました。「いくらなんでも、さすがにこれは理屈が通らない」と思うような見解が平気で流されていると感じています。

こんなに露骨なことをすれば、そのメディアに対する信頼が失われ、ビジネス的にもデメリットばかりではないかと思えるようなことを、なぜ続けているのかとずっと不思議に思っていました。そんなことを書いても、マジョリティは反発するだけだとわかっているようなことをなぜ発信し続けるのか?

もちろん様々な可能性が考えられます。そのメディアなり記者なりが真に正しいと思うことを書いている可能性も無くはありません。webなら挑発的なタイトルと内容でわざと炎上させて、ページへのアクセスを稼ぐというのも普通に行われているでしょう。

それ以外にも、直接世論誘導しようとする意図も当然あるだろうし、穿った見方をすれば、国の世論を右と左という単純な構図に分断させようという意図もありそうなものです。そうすれば国力が弱まりますからね。

しかしそれに加えて、その記事が記録として残ることによって、遠い将来に誰かが記す歴史に影響を与えようとする意図もあるのではないかと、冒頭の新型コロナウィルスの記事を読んで、思えてきました。

そこで注意しなければいけないと思ったのが、webのニュース記事などへのコメント欄。

確かに、おかしいと思う記事に対して異論を書き込んだり、自分の意見を書き込むと、なんとなく「言ってやった!」という充実感があるし、こんなにみんな反対しているぞと世論を見せつけたような気になることがあります。しかも、場合によってはそれが現実の世論を動かし、社会に大きな影響を与えることもあり得るでしょう。

でも、このコメントって将来にわたって保存されるの?という素朴な疑問があります。そのサイトの中ではたぶん残されるだろうけど、サイトが閉鎖されれば終わりだし、時間が経てば、データ容量が大きいコメント欄だけ消去されてしまうこともあるかもしれません。

それに、全世界のwebデータを包括的に収集している検索エンジンのクローラーは、一つの記事に何千とあるコメントまで記録していないんじゃないでしょうか。検索には必要ありませんからね。クローラーは、データベースのような動的な内容は収集していないようです。

ニュース記事へのコメント欄には様々な観点からの意見が書き込まれていて、その時々の社会の風潮が(かなり偏りはあるにせよ)ビビッドに伝わります。でも、その場限りなんじゃないか、と思われます。

つまり、将来にわたって残るのは、結局、本体の記事のみということになるだろうということです。

例えば今から20年後に、現在の状況を体験していない若者がインターネットを検索して、この新型コロナウィルスの発生と広がりの経緯を調べたら、はたして正確な状況を把握することができるでしょうか?

そんな危惧もあるので、なんとか国が自前でweb情報のスナップショットを、一部なりともあのコメント欄なども含めて、撮ることができないものかと思います。

もちろん政権批判がたくさん書かれていますが、その妥当性は選挙で確認すればいい話で、気にする必要は全くないと思います。

 

 

 
スマホの音声アシスタントとの
対話を描くストーリー

 

 

 

 

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です