5 さらなる問題
しかしこの方法で、常時ネット上でロボットに監視されていることを考えると、何となく肌寒いものを感じる人も多いだろう。
こうした単なる検索用のロボットについても、近い将来、知らない間にネット上に個人情報が集積されてプライバシーが丸裸にされるという事態が発生しかねないと考えられている。
また、悪名高い「ラピッドファイア」という問題も指摘されている。
これは、サーチ・ロボットが物凄い勢いでアクセスすることによって、低速のサーバーなどの負荷が増大し、最悪のケースではシステムのクラッシュを引き起こすなどのトラブルが発生するという問題である。
また、単なる検索用のロボットであれば、サーバーのルート・ディレクトリに robot(s).txt という名前のファイルを作って、特定の記述をしておけば、ほとんどの検索用のロボットは退散してしまう。
このあたりの点は、Martijn Koster氏のThe Web Robots Pagesというサイトや、東京都立科学技術大学の舟久保研究室のサイトに説明があるので、詳しくはこれらのサイトを見ていただきたい。
しかし、単なる検索用のロボットと違って、著作権侵害監視用ロボットの場合は、こういった「呪文」を書いても退散しないし、してもらっては監視にならないであろう。
闇雲にネットに対し法規制が加えられて、法律でがんじがらめに縛られることと比べれば、技術的に解決する方が遥にスマートであり実害も少なくて済むはずではあるが、まだまだ問題点は多い。
こうした問題点を今後どうしていくか…。技術が発達すればするほど、問題は複雑なっていくものなのだ。
(了)