Polémiques et Controverses: juin 2006

Polémiques et Controverses

18 juin 2006

Le Web Mondial de plus en plus vulnérable


Une étude récente montre que les principaux serveurs dédiés au fonctionnement d'Internet sont rendus encore plus vulnérables aux attaques, en raison du manque de sécurité des sites qu'ils desservent.


Selon une étude récente, les attaques par des individus malveillants pourraient empêcher le fonctionnement de plus d'un tiers des sites Internet répertoriés dans le monde.

Des statistiques inquiétantes


Cette affirmation provient de chercheurs qui ont analysé comment le système d'adressage du Web fonctionne. Ils ont constaté que si les attaques simples (tentative de piratage d'un PC isolé) étaient combinées avec des attaques de déni-de-service, 85% des sites pourraient être piratés, et donc contrôlés, à distance. Les chercheurs recommandent de revoir de fond en comble le système d'adressage actuellement en vigueur sur Internet, mais lorsqu'on voit à quel point ce dernier est "pluriel", on comprend que ce ne sera pas chose aisée.

Le mieux est-il l'ennemi du bien ?


Quand vous tentez d'accéder à un site Web, votre ordinateur commence par interroger des serveurs de noms de domaines, afin de savoir précisément sur quel serveur le site recherché est hébergé. Mais ce faisant, la demande de recherche est expédiée à un grand nombre de serveurs, et il est possible, durant ce transfert d'informations, de corrompre les données transmises. On estime ainsi en moyenne à 46 le nombre de serveurs interrogés détenant des informations sur les adresses Internet demandées.

En effet, chaque serveur ne possède pas toujours toutes les données permettant d'opérer une connexion directe : certains gardent dans leur mémoire des traces de demandes précédentes, et reprennent des chemins déjà validés pour vous permettre d'accéder au site recherché. C'est le principe du cache, qui, bien que fort pratique, présente toutefois une grande vulnérabilité.

"La croissance d'Internet a mis en évidence ces inter-dépendances," estime le professeur Emir Gun Sirer, du département d'informatique de l'Université de Cornell. "Pour s'attaquer à un site précis, les pirates n'ont plus besoin de le cibler directement. Ils peuvent se contenter d'en attaquer un autre, et compter sur les transferts de données en cache d'un serveur à l'autre pour faire le travail."

Par exemple, toutes les informations recueillies et analysées par les chercheurs à travers le monde doivent être disponibles à l'ensemble de la communauté scientifique. Selon un examen effectué sur près de 600.000 ordinateurs, il apparaît que 17% des serveurs DNS (Domain Name System) sont encore vulnérables à des programmes malveillants pourtant connus de longue date. Ils regrouperaient environ un tiers du total des adresses Internet recensées...

Les cordonniers sont souvent les plus mal chaussés...


Personne n'est vraiment à l'abri. Dernièrement, le site du FBI a été piraté, car l'un des cinq serveurs qui filtrent l'accès à cette adresse n'avait pas reçu toutes les mises à jour de sécurité nécessaires. Cet exemple illustre bien la difficulté de rendre le surf sur Internet plus sûr : si une agence gouvernementale américaine ne parvient pas à protéger son propre site Web, on imagine la difficulté que cela représente pour les administrateurs de noms de domaines aussi demandés--et répandus--que ceux en ".com", par exemple.

Le pire est cependant que la plupart de ces attaques sont totalement transparentes pour l'internaute de base. Il (ou elle) entre un URL dans la barre d'adresses de son navigateur Internet, et s'attend à être dirigé(e) vers un site précis. Cela arrive dans l'immense majorité des cas, heureusement, mais parfois, le système dérape, ou est corrompu à l'insu de tous.

Selon le professeur Sirer, un bon moyen de se protéger serait d'adopter une structure de réseau de type peer-to-peer, en lieu et place de l'installation hiérarchisée actuelle. Les contrôles d'un serveur à l'autre seraient redondants et permanents, et la corruption de données plus facile à repérer, mais l'infrastructure actuelle pourrait ne pas supporter ce changement, surtout si l'on tient compte de la quantité de données à stocker.

Le débat est plus que jamais lancé...

Source : Generation NT

Libellés :

Malcolm Saint Juste, 01:52 | Polémiques et Controverses