OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Touche pas au grisbi du CNC http://owni.fr/2012/10/24/touche-pas-au-grisbi-du-cnc/ http://owni.fr/2012/10/24/touche-pas-au-grisbi-du-cnc/#comments Wed, 24 Oct 2012 15:09:57 +0000 Claire Berthelemy http://owni.fr/?p=123653

Créée en 2008 pour inclure la télévision numérique à l’effort national de soutien à la création, la TSTD est une évolution naturelle de la taxe historique sur les services de télévision (TST). En principe : ce qui est prélevé à chaque diffuseur pour permettre de financer le Centre national du cinéma et de l’image animée (CNC).

Tout allait bien jusqu’à ce que Free, “qui a tout compris”, ne dissocie ses offres “télévision” et “Internet” pour réduire drastiquement sa voilure à l’effort, celle-ci étant indexée au prix de l’abonnement contenant l’accès à la télévision. En séparant ses offres et en faisant reposer l’essentiel du prix de l’abonnement à l’accès Internet – collant un prix d’accès ridicule au service télé – le FAI n’est plus un acteur comme les autres du financement de la création française. Il en devient un acteur à la marge.

Pour compenser, l’État français décide donc de pondre une notification d’ajustement à sa taxe, afin d’englober également les services “Internet” des fournisseurs d’accès. Initiative très largement soutenue par le CNC, on s’en doute, pour qui “la télé, c’est Internet maitenant” et qui affiche des positions laissant peu de place à l’ambiguïté, d’abord par la voix d’Éric Garandeau, son président, ayant annoncé que 20 agences nationales du cinéma européen soutenaient la France :

On nous dit qu’il faut tout sacrifier aux télécoms car c’est l’avenir, alors que même de grands groupes se disent en ce moment que la richesse n’est plus dans les tuyaux, mais dans les contenus.

Mais aussi par la voix de Mathilde Dessane, chargée des médias :

Au même titre que pour un exploitant de salle, une personne qui bénéficie d’un service est censée être taxée pour que tout ça soit redistribué, le principe est vertueux. Il n’y a aucune raison d’exclure Internet de ce type de taxe. La cohérence du fonds de soutien est au cœur du modèle français de soutien au cinéma et à l’audiovisuel, dont l’un des traits originaux est bien la contribution de tous les acteurs de la chaîne (y compris les fournisseurs d’accès) au financement de la création française et européenne.

Un premier texte a donc été déposé par la France en novembre 2011.

On a un problème, Houston

“Halte là” signale Bruxelles, qui a estimé, sans se presser, par la voix de la Commission européenne, que le texte – dans cette version – n’est pas en accord avec la législation de l’Union. En octobre, la Cour des comptes se demandait également, prudemment mais sûrement, si la taxe était justifiée au regard de la règlementation européenne. Et de renvoyer Paris à ses études et à la rédaction d’une nouvelle notification prenant compte du caractère sacré d’Internet.

La ministre de l’économie numérique, Fleur Pellerin, affirmait déjà fin septembre que le texte allait être ré-écrit. La ministre de la culture, Aurélie Filippetti, a confirmé cette décision de retirer le texte datant de fin 2011. Les négociations étaient censées être terminées ce 21 octobre. Pour Filippetti, il est plus simple de notifier un nouveau texte avec lequel Bruxelles sera d’accord, différent dans la forme, beaucoup moins dans le fond, plutôt que d’aller batailler dans de plus longues procédures avec la Commission.

En tout état de cause, c’est pendant que la Commission européenne planchait sur les futures règles applicables au soutien au secteur cinématographique – mise en service prévue en janvier 2013 – que se sont déroulées les 22e rencontres cinématographiques à Dijon. Du 18 au 20 octobre dernier, les pros du secteur épaulés par la société civile des Auteurs-Réalisateurs-Producteurs (ARP), ont surtout milité pour accélérer la validation bruxelloise de cette TSTD version 1. Venue spécialement à Dijon, la ministre de la culture en a profité pour annoncer être déjà passée à la version 2, et de “notifier dans les jours prochains un nouveau texte”, inclus dans la loi de finance rectificative : une taxe en lien avec le chiffre d’affaires des diffuseurs.

On peut respecter les grands principes du compte de soutien et donc toute son efficacité au service du cinéma et de la création cinématographique et audiovisuelle. C’est cette position-là qui sera défendue à Bruxelles ces prochains jours avec cette nouvelle notification.

L’assiette concernée pour les fournisseurs d’accès : Internet haut débit, fixe et mobile, “assortie d’un abattement pour tenir compte de la densité audiovisuelle du web” (sic). Nous avons naturellement voulu en savoir plus sur cette densité, mais n’avons à cette heure obtenu aucune précision supplémentaire de la Rue de Valois.

Tu diffuses ? Tu finances !

Au centre des interrogations des cinéastes à Dijon, Michel Hazanavicius en tête, les négociations d’Aurélie Filippetti auprès de la Commission européenne sur cette TSTD, version 1 ou version 2. Leur ligne de défense, précisée dans leur communiqué de presse [pdf], repose notamment sur le “socle du modèle français”, c’est-à-dire (on l’aura compris) sur le financement par le diffuseur – les chaînes de télé numérique et les fournisseurs d’accès – d’un pourcentage des oeuvres.

Mais alors que les principes de neutralité fiscale et de neutralité technologique avancées par l’Europe devraient ou pourraient en tout cas s’appliquer, Florence Gastaud, déléguée générale de l’ARP, y voit un sacré paradoxe :

A l’origine, l’exception culturelle a été inventée pour résister à l’hégémonie de la culture américaine, le paradoxe actuel c’est qu’il faille se battre à l’intérieur des frontières européennes, contre les dirigeants bruxellois.

Sur le principe, le CNC n’est pas opposé à une nouvelle notification puisque “l’idée est de réécrire le texte mais sans changement radical, pour mieux faire passer le message auprès de la commission”.

Mais pourquoi se battent-ils autant ?

Pour l’argent. On comprend mieux pourquoi la bataille est rude quand on voit que les ressources du CNC ont explosé depuis deux ans. Les Echos apportaient quelques explications, aiguillés par le rapport de la Cour des comptes sur le financement du CNC :

Une telle explosion s’explique par le rendement de la taxe sur les services de télévision (TST), payée par les distributeurs de chaînes (CanalSat, Numericable et les fournisseurs d’accès Internet), qui a atteint 322 millions d’euros en 2011, soit près de quatre fois plus qu’en 2008.

Au total ce sont 786 millions de recettes pour le CNC en 2011. Contre 500 millions en 2007. Pourtant, La Tribune précise que l’État a été piocher 20 millions d’euros “suite à une demande du sénateur UMP Philippe Marini” et Free a presque cessé de payer les taxes – alors qu’il en payait 20 millions auparavant.

Lors de la présentation au Sénat des résultats de la Cour des comptes, Patrick Lefas, président de la 3e chambre précisait même que “les ressources du CNC sont ainsi passées de 528 millions d’euros en 2007 à 867 millions d’euros en 2011, soit une augmentation, inédite au sein des quelques 80 autres opérateurs du ministère de la culture et de la communication, de 46,3 %.”. Avec 93% des ressources provenant de taxes, passant de 442 millions en 2001 à 806 millions en 2011 :

La création, en 2007, de la Taxe sur les Services de Télévision “distributeurs” (TSTD) a joué un rôle majeur dans l’augmentation des ressources de l’établissement, le produit de cette taxe passant de 94 millions d’euros en 2008 à 322 millions d’euros en 2011, au point de représenter près de 40 % des recettes du CNC.

Les députés viennent de voter ce lundi un prélèvement pour le budget 2013 de 150 millions d’euros dans le cadre de la participation du CNC au redressement des comptes publics. Justifié par Jérôme Cahuzac, ministre du Budget, par le fait que “l’autonomie ne doit pas aller jusqu’à utiliser les fonds publics de manière déraisonnable”.

Le calcul est assez rapide : 150 millions prélevés sur un peu plus de 800 millions de trésorerie et 786 millions en recettes fin 2011, la ponction ne semble pas être trop gênante. À gauche ou à droite les députés étaient plutôt divisés : 22 députés de droite avaient déposé un amendement pour annuler la ponction dans les comptes du CNC. Autre motif de discorde, le plafonnement de la taxe affectée aux grands opérateurs de l’État, dont un premier amendement déposé par Gilles Carrez et Hervé Mariton a été rejeté.

Peu importe, ils en ont déposé un autre.


Photo par M4tik [CC-bync] remixée par O.Noor pour Owni.

]]>
http://owni.fr/2012/10/24/touche-pas-au-grisbi-du-cnc/feed/ 0
La neutralité remise sur le tapis http://owni.fr/2012/09/14/la-neutralite-remise-sur-le-tapis/ http://owni.fr/2012/09/14/la-neutralite-remise-sur-le-tapis/#comments Fri, 14 Sep 2012 14:22:02 +0000 Andréa Fradin http://owni.fr/?p=120097

L'Internet reste stupide, et c'est très bien comme ça

Internet en fusion

Internet en fusion

En lançant une réflexion sur le "rapprochement" de l'Arcep et du CSA, le gouvernement ressuscite un serpent de mer qui ...

Mise à jour (19/09/2012) : le cabinet de Fleur Pellerin, ministre en charge de l’économie numérique, a indiqué hier à Libération qu’il n’y avait “pas d’urgence à légiférer”, ajoutant que “s’il y a des atteintes à la neutralité, l’Arcep peut être saisie. “ Le régulateur a en effet la possibilité d’être saisi par les acteurs du Net en cas de différend. Les internautes néanmoins, restent sans aucune possibilité de recours.

En matière de neutralité du Net, Bercy préfère donc s’attacher à l’avis du régulateur des télécoms, qui n’est pas favorable à l’idée d’une loi sur le sujet, plutôt que de soutenir une initiative de l’opposition. Un rapport reprenant sa position est d’ailleurs attendu les tout prochains jours au Parlement.

L’alliance du ministère avec l’Arcep a de quoi surprendre, à l’heure d’un éventuel rapprochement de cette autorité avec le Conseil supérieur de l’audiovisuel (CSA), qui est perçu comme un véritable coup de boutoir politique en direction du régulateur des télécoms. Bercy a d’ailleurs tenu à préciser que “la question de la neutralité du Net pourrait rentrer dans les discussions à venir sur la fusion entre le Conseil supérieur de l’audiovisuel (CSA) et l’Arcep.” Histoire de complexifier un peu plus une affaire déjà foutraque et mal engagée.


“Créer certaines règles pour préserver l’Internet.” C’est l’objectif de la proposition “relative à la neutralité de l’Internet” que vient de déposer Laure de la Raudière (UMP) à l’Assemblée nationale. L’élue est une habituée du sujet, puisqu’en 2011, elle remettait déjà au Parlement, accompagnée de Corinne Erhel (PS), un rapport sur la neutralité du Net. Interrogée par OWNI, elle déclare souhaiter “faire de ce texte un marqueur important de ce qu’est la neutralité du Net dans le droit”.

En inscrivant ce principe dans la loi, cette proposition vise à protéger le réseau, “immense bien collectif”, “des intérêts de ses différents acteurs”. Le tout décliné assez brièvement, en à peine 9 articles. Outre la définition de la neutralité du Net, les obligations fixées notamment aux fournisseurs d’accès à Internet (FAI), le texte aborde aussi l’épineuse question du “blocage de l’accès à Internet”. Rassemblée en une “procédure unique”, elle est ici remise entre les mains de la seule autorité judiciaire.

Blocage : juge à tous les étages

Pour un Internet “neutre et universel”

Pour un Internet “neutre et universel”

Contre le blocage et en faveur d'une neutralité des réseaux préservée et contraignante, le rapport de Laure de la ...

C’est d’ailleurs la disposition qui a été la plus commentée. Certains se sont étonnés de retrouver le scénario du blocage de sites Internet au sein d’une proposition protégeant la neutralité. “L’article 4 n’est pas mal” commente quant à lui Benjamin Bayart, le président du FAI associatif FDN, également bien au fait du sujet, contacté ce matin par OWNI. “Il modifie très en profondeur ce qui existe déjà et remet le juge partout !”, poursuit-il.

L’article 4 propose en effet de réunir l’ensemble des procédures permettant en droit français d’imposer aux FAI de bloquer l’accès à certains contenus, en y faisant systématiquement intervenir l’autorité judiciaire. Une rupture avec les mauvais souvenirs laissés en 2010 par la LOPPSI (loi d’orientation et de programmation pour la performance de la sécurité intérieure).

Pour rassembler les “cinq bases légales différentes” en la matière, l’article 4 modifie donc l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN) -un passage casse-tête qui détaille (entre autres) la responsabilité des hébergeurs sur Internet

Si le texte est adopté, il y aura donc une procédure unique. Les scénarios visés sont ceux que l’on retrouve habituellement en cas de serrage de vis sur le Net : jeux en ligne non autorisés, pédopornographie et bien sûr, la sacro-sainte atteinte “à un droit d’auteur ou à un droit voisin”.

Difficile en l’état de savoir quelles implications auront les modifications souhaitées par la députée UMP. “Pour comprendre l’article 6 de la LCEN, il faudrait 2 mémoires de thèse !” commente Benjamin Bayart. Et de conclure :

Difficile de dire en l’état si l’article 4 aura des effets de bord.

Du vrai Internet, une qualité minimale

Outre la question du blocage, la proposition de loi entend aussi régler les comptes des FAI. Certaines obligations leur sont imposées afin d’éviter qu’ils façonnent le réseau, et la manière dont les internautes peuvent en disposer, au gré de leur objectifs commerciaux.

Ainsi, seuls les services “respectant le principe de neutralité” pourront être vendus sous l’étiquette offre “d’accès à Internet”, indique l’article 5. Les suivants (articles 6, 7 et 8) imposent quant à eux aux opérateurs “une qualité de service minimale”. C’est l’Arcep, le gendarme des télécoms, qui est présenté comme le bras armé de la neutralité : il lui revient la responsabilité de mettre sur pied “un observatoire de la qualité de l’Internet” (art.6), ainsi que d’imposer aux FAI les “exigences minimales en terme de qualité de service” dès que la situation concurrentielle ne le permet pas. “Afin, poursuit le texte, de garantir aux consommateurs la capacité de choisir une offre d’accès à Internet respectant le principe de neutralité”.

Manière comme une autre d’apporter son soutien à l’Arcep, qui en a bien besoin. Empêtrée dès la rentrée dans un projet du gouvernement qui vise à rapprocher cette autorité du Conseil Supérieur de l’Audiovisuel (CSA), l’Arcep retrouverait ici un nouveau souffle. Les différents chantiers qu’elle mène depuis plusieurs mois au sujet de la neutralité du Net, que nous suivons attentivement ici à OWNI, sont en effet directement concernés par la proposition de loi.

Internet bat la mesure

Internet bat la mesure

Le gendarme des télécoms redresse la barre, mais peut-être trop tard. Pour mesurer la qualité de l'accès à Internet en ...

Ainsi le projet de mise en place d’un suivi de la qualité de service de l’accès à l’Internet fixe. Rappelez-vous : les garanties apportées par ce groupe de travail ne permettaient pas de croire en la validité des mesures à venir. Avec un observatoire indépendant, placé au cœur du régulateur, difficile pour les FAI de truquer les mesures. De même pour la question des offres commerciales estampillées “Internet”, très âprement discutée au sein d’un autre groupe de travail.

Même si l’Arcep ne se montre pas favorable à une loi pro-neutralité, comme elle devrait le réaffirmer dans les prochains jours dans un rapport qu’elle remettra au Parlement (l’analyse du pré-rapport à lire ici), l’initiative de Laure de la Raudière ne devrait donc pas la laisser insensible.

Mort-né ?

Reste bien sûr la question de l’adoption de cette proposition. Rien n’est gagné, tant du côté de l’opposition que du côté de la majorité. “Là tout de suite, l’UMP a des priorités sur la productivité et l’emploi”, concède Laure de la Raudière. Avant d’ajouter :

Déposer ce texte, c’est aussi une manière de questionner le gouvernement. J’ai du mal à savoir leur position sur le sujet.

Pour le moment, les intéressés gardent le silence : après l’avoir joint plus tôt dans la journée, nous restons en attente d’une réaction officielle du cabinet de Fleur Pellerin, la ministre en charge de l’économie numérique. Ministre qui s’était illustrée cet été par une bourde au sujet de la neutralité, affirmant qu’elle était “un concept américain qui a tendance à favoriser les intérêts économiques de Google, Apple et consorts.”

C’en était suivi un tollé, qui a fait place à une rectification de la part de l’intéressée, sur Twitter comme lors du Club parlementaire du numérique. Elle avait alors déclaré soutenir “la liberté et l’universalité d’internet”.

Pas sûr néanmoins qu’elle profite de l’ébauche déposée par Laure de la Raudière, une élue de l’opposition. Histoire de territoires politiques bien sûr, mais aussi, peut-être, de venger une autre proposition de loi : celle de Christian Paul, élu PS, qui avait déposé sans succès, en février 2011, un texte visant à protéger la neutralité du Net.

]]>
http://owni.fr/2012/09/14/la-neutralite-remise-sur-le-tapis/feed/ 2
La société civile contrôlera aussi le Net http://owni.fr/2012/05/07/la-societe-civile-controlera-aussi-le-net/ http://owni.fr/2012/05/07/la-societe-civile-controlera-aussi-le-net/#comments Mon, 07 May 2012 11:00:14 +0000 Andréa Fradin http://owni.fr/?p=109089 OWNI. Mais, sous la pression de plusieurs associations, le régulateur des télécoms (Arcep) ajuste le tir dans son projet de mesure de la qualité du Net français, selon des informations que nous avons recueillies auprès de proches du dossier. Un début de bonne nouvelle pour les consommateurs.]]>

Branchements internet de trois opérateurs différents - (cc) Nicolas Nova

“Très positif”. En plaçant des garde-fous dans le dispositif visant à mesurer la qualité de l’accès à l’Internet fixe, l’Autorité de régulation des communications électroniques et des postes (Arcep) a marqué des points. Surtout auprès de certains représentants de la société civile, dont la voix devrait porter plus que prévu. Une caution non négligeable, même si tout reste à faire pour prendre le pouls du Net français en toute transparence.

Gardiens de la transparence

Désormais, les structures pressenties pour auditer la qualité du Net en France ne sont plus les seuls opérateurs. Aux côtés de France Télécom, SFR, Bouygues Telecom, Free, Numericable, Darty Telecom – qui couvrent plus de 100.000 foyers- et de la Fédération Française des Télécoms (FTT), qui les représente pour la plupart, l’Arcep a décidé d’ajouter les “représentants d’associations d’utilisateurs et des experts indépendants ayant manifesté leur intérêt pour le travail.”

Free, SFR, Orange et Bouygues en autocontrôle

Free, SFR, Orange et Bouygues en autocontrôle

Accorder à Orange, Free, SFR et Bouygues le luxe de devenir les seuls juges de la qualité de leurs offres d'accès à ...

Une décision présentée il y a quelques jours dans les locaux de l’Autorité, qui rompt avec les premières orientations des travaux. Ces derniers mois, la ligne suivie par l’Arcep laissait en effet aux fournisseurs d’accès à Internet (FAI) la maîtrise de la mesure d’un bout à l’autre de la chaîne : choix de la méthodologie, du responsable des mesures…

Certaines associations (Afnic, La Quadrature du Net, UFC Que Choisir) avaient pointé du doigt les risques d’une telle orientation, qui confie aux FAI le double rôle avantageux de juge et partie : fournissant une prestation d’un côté, lui donnant une note de l’autre. Pour en faire au final une utilisation commerciale, vantant les bons résultats de la mesure.

Face à la levée de boucliers de la société civile, l’Arcep a donc changé de cap. Une décision qui va plutôt “dans le bon sens” nous confie-t-on du côté des opérateurs, qui souhaitent dénouer “le fantasme sur la relation entre l’autorité et les opérateurs.”

Encadrement et contrôle

Concrètement, le “comité technique” ainsi installé a la lourde tâche de définir et d’installer le système permettant de mesurer la qualité du réseau français à l’horizon 2013. Le tout dans un souci de “transparence de la démarche”, ainsi que de “sincérité et [d’]objectivité des mesures”, indiquent les documents de travail que nous avons consultés.

Des paroles suivies d’encadrements stricts. A priori. Dans une “charte de fonctionnement”, l’Arcep indique que “les opérateurs s’engagent” à justifier le choix du prestataire unique chargé de mesurer la qualité du réseau. Expliquer les raisons de leur préférence mais aussi incorporer les éventuelles remarques adressées par les autres membres du comité technique. A savoir, la société civile. Une nouveauté que les opérateurs disent accepter, sous réserve de “proportionnalité”. Autrement dit, hors de question qu’ils prennent en charge un dispositif, qu’ils sont déjà obligés de financer, trop coûteux. La distinction entre les précautions nécessaires et superflues seront à coup sûr au centre de tous les débats.

Internet se fera sonder en profondeur

Internet se fera sonder en profondeur

Rencontre avec Luc Saccavini, principal responsable technique du futur observatoire d'Internet de l'Inria. Avec ce ...

Les opérateurs et l’Arcep s’orienteraient vers la mise en place de “lignes dédiées”, sur lesquelles le prestataire effectuerait 24 heures sur 24 une batterie de mesures. Débits descendant et ascendant, temps de chargement d’une page web ou qualité de visionnage de vidéos devraient être passés au crible.

Pour encadrer le dispositif, le gendarme des télécoms s’engage également à financer un système de mesures parallèles. En janvier, l’organisme de recherche Inria proposait de s’associer à l’initiative. Difficile à ce stade d’en savoir davantage, mais l’Arcep favoriserait le volontariat, des internautes effectuant eux-mêmes des tests à domicile. Contactée par OWNI, l’autorité s’abstient de tout commentaire, indiquant qu’elle ne communiquerait que lorsqu’elle aura “une annonce finalisée à faire.”

Reste à savoir comment les résultats de ce contrôle individuel pourra être comparé à ceux du prestataire, sur les “lignes dédiées”. Autrement dit, sur des lignes privées de tous les biais liés à un usage quotidien et normal du Net : performances du poste, accès en WiFi…

Gestion de trafic dans le viseur

Plus intéressant encore, l’Arcep réintègre dans son dispositif les mesures de gestion de trafic. Ces pratiques des opérateurs, qui permettent de dégrader ou même de bloquer un site ou un service -à tout hasard, le peer-to-peer-, avaient été d’abord écartées du chantier. Chantier visant pourtant à juger la qualité de la prestation des FAI. Une aberration pour La Quadrature du Net, qui avait signalé à l’Arcep la nécessité de leur prise en compte dans un chantier visant à garantir la neutralité des réseaux :

Pour pallier aux graves carences de son approche de la notion de qualité de service, l’Arcep doit faire évoluer ses indicateurs, de manière effective, vers la mesure des pratiques de gestion de trafic et de la dégradation sélective [...]. Pour ce faire, elle doit réfléchir urgemment à un calendrier et à une méthode adéquats. Il n’y a qu’ainsi qu’elle pourra contrôler les dires des opérateurs quant à leurs pratiques de gestion de trafic et contrôler le respect de leurs obligations de transparence.

Pas sûr néanmoins que le résultat de ces mesures atterrissent dans le grand public. L’affaire est soumise à de multiples précautions. Car si l’on constate une dégradation de service sur un réseau, l’opérateur qui en a la charge risque d’être mis au ban des consommateurs. Or il peut pâtir des mauvaises pratiques d’un concurrent, plaident les FAI :

Sur le peer-to-peer par exemple, il suffit qu’un maillon fasse une restriction pour qu’elle soit identifié sur l’ensemble de la chaîne.

L’Arcep va donc prendre ces mesures avec des pincettes, en n’effectuant dans un premier temps que des tests très simples sur les débits. Afin de déterminer si les offres vendues par les opérateurs correspondent à la réalité.

Les autres mesures quant à elles devraient faire l’objet de publication semestrielle. Les consommateurs pourront les retrouver à la fois sur le site des opérateurs et sur le site de l’Arcep.

Rien n’est cependant arrêté, puisque le régulateur prévoit de lancer une nouvelle consultation publique sur le sujet. Mais les réajustements du gendarme des télécoms rendent optimistes certains participants, qui ”n’attendaient plus rien ou très peu” de ce groupe de travail. S’ils reconnaissent les efforts de l’Arcep, d’autres en revanche se montrent plus prudents. A l’UFC Que Choisir, le responsable des dossiers numériques Édouard Barreiro reconnaît ainsi la “bonne volonté de l’Arcep” tout en regrettant que “la collecte et le premier traitement des informations issues des mesures demeurent au main des opérateurs.” “Il y a toujours une suspicion”, conclue-t-il. Difficile en l’état de s’assurer que les mesures de contrôle seront suffisantes. Surtout au vu de la charge de travail, que les représentants de la société civile auront le plus grand mal à suivre. L’un d’entre eux confie : “ils ouvrent les portes, mais nous n’avons pas les moyens de participer à toutes ces réunions. À l’inverse des opérateurs.”

Pour le comité technique en effet, la tache s’annonce chronophage : deux réunions par mois sont à prévoir jusqu’en 2013. Puis d’autres, pour assurer le suivi du dispositif. Un fardeau titanesque mais nécessaire, pour faire en sorte que cette mesure donne aux 22 millions de foyers branchés en haut ou très haut débit une véritable chance de contrôler la prestation de leur FAI. Et pour que ce projet ambitieux ne devienne pas un simple miroir aux alouettes.


Photo par Nicolas Nova (CC-by)

]]>
http://owni.fr/2012/05/07/la-societe-civile-controlera-aussi-le-net/feed/ 5
L’Europe délaisse la neutralité du Net http://owni.fr/2012/04/19/leurope-delaisse-la-neutralite-du-net/ http://owni.fr/2012/04/19/leurope-delaisse-la-neutralite-du-net/#comments Thu, 19 Apr 2012 14:01:10 +0000 Andréa Fradin http://owni.fr/?p=106842

Un subtil travail de définition. À l’occasion de la World Wide Web Conference qui se tient actuellement à Lyon, la commissaire européenne en charge des affaires numériques Neelie Kroes a livré ce matin sa vision d’un Internet “ouvert”. Ou plus exactement, les multiples variantes de ce qu’elle entend par “être ouvert en ligne”, pour reprendre l’intitulé de son discours. Résultat : l’ouverture du réseau doit certes être préservée, mais à certaines conditions. Qu’elle fixe.

L’ouverture ? C’est subtil

Après avoir rappelé son attachement à l’ouverture d’Internet, en déclarant dès la première phrase du discours qu’il s’agit “de la meilleure chose” en matière de réseau, Neelie Kroes vient rapidement modérer son propos :

L’ouverture est aussi complexe car sa signification est parfois peu claire.

Car si les bénéfices d’un Net ouvert font consensus dans certains cas, dans d’autres, plus clivants, ils sont plus contestables. Ou tout du moins, sujets à caution de la commissaire européenne. L’Open Data, ou les révolutions arabes, référence désormais incontournable pour tout politique souhaitant aborder publiquement la question numérique, figurent ainsi clairement dans la case “l’ouverture c’est chouette” de Neelie Kroes. Sans qu’un problème de définition ne se pose : dans ces cas-là, “les bénéfices de l’ouverture sont clairs.”

Dans d’autres, ceux qui sentent généralement le soufre, ce“n’est pas si simple”. Ainsi les questions de propriété intellectuelle, de sécurité ou d’accès à Internet. Sur tout ça, il s’agit subitement :

[De devoir] être clairs sur ce que nous entendons par ouverture.

Pour Neelie Kroes, l’ouverture mêlée aux droits d’auteur revient à s’ouvrir “à différents business models”. En clair, “ne pas offrir quelque chose pour rien”. Et si la commissaire européenne concède que certains créateurs veulent être reconnus d’une autre façon”, elle affirme aussi que “parfois, la meilleure façon pour les créateurs de tirer profit [de leur travail] est d’en faire payer l’accès.” Et de poursuivre :

Ce n’est pas une limitation de la liberté ou de l’ouverture, pas plus que ne l’est le fait de payer pour un journal.

Quand elle aborde les questions de sécurité, citant par exemple la protections des enfants sur Internet, elle définit l’ouverture en ces termes : “[elle] ne signifie pas l’anarchie” ni ne s’impose “au détriment de la vie privée ou de la sécurité”. Fondamentale en somme, mais placée au cœur d’une échelle de valeurs stricte.

Internet ? Aux usagers de décider

La neutralité déchire l’Europe

La neutralité déchire l’Europe

Le Parlement européen appelle la Commission à agir pour protéger la neutralité des réseaux. Une pression politique sur ...

Ça se corse davantage avec la fourniture de l’accès à Internet. Pour Neelie Kroes, la notion d’ouverture est ici particulièrement “subtile”. Il est vrai qu’en la matière, la position de la commissaire est branlante. Et ce n’est pas nouveau. D’abord habituée à souffler le chaud et le froid, la commissaire a progressivement adopté les éléments de langage des opérateurs (début octobre, ou bien encore en juillet dernier) pour les questions de neutralité des réseaux – vite remplacées par la notion d’“ouverture”. Elle va ici plus loin,  se disant “engagée à garantir la neutralité du Net” d’un côté et refusant de l’autre à assimiler ce combat au “bannissement de toutes les offres ciblées ou limitées”. L’ouverture consistant ici pour elle davantage à “être transparent” sur ces offres, et à “laisser aux consommateurs la possibilité de choisir librement et aisément s’ils les souhaitent ou non”.

Pour Neelie Kroes, ce qu’est et doit être Internet ne sera pas fixée et protégé a priori : les usages sont préférés à une loi. Aux consommateur de choisir ! Quitte à ce qu’ils limitent leur propre accès à Internet. Sur ce point, la commissaire se veut d’abord confiante, expliquant que les “environnements isolés” ont “souvent échoué” sur Internet. A ce titre, elle cite l’exemple des ” ‘walled gardens‘ bâtis par les fournisseurs d’accès à Internet dans les années 1990″. Une expression qui renvoie aujourd’hui fréquemment aux empires construits et contrôlés par Apple, ou Facebook. Et qui sont tout sauf désuets ou effondrés.

La commissaire pousse la logique plus loin encore, en expliquant qu’en “pratique, il y a plein de moyen de ‘limiter’ l’accès à Internet que la plupart d’entre nous sont prêts à accepter, et même à utiliser.” En exemple : l’existence de forfaits Internet plafonnés à un certain volume de données par mois et que “beaucoup d’entre nous choisissent volontiers.” Et d’enfoncer le clou :

Et bien très bien. C’est loin d’être de la censure. Si on a seulement besoin de consulter occasionnellement les e-mails en 3G et que quelqu’un est prêt à vous offrir ce service – pourquoi devrait-on subventionner ceux qui consomment des films ?

Une impression de déjà vu ? C’est précisément l’argumentaire déployée l’été dernier en France, à la suite d’un papier d’OWNI sur la fin de l’Internet illimité. Les opérateurs expliquant progressivement qu’il n’était pas normal que tout le monde paye pour les “net-goinfres”, expression sympathique visant les consommateurs de services en ligne gourmands en bande passante (streaming vidéo, jeux vidéo en ligne,… ).

La fin de l’Internet illimité

La fin de l’Internet illimité

Des opérateurs veulent mettre un terme aux forfaits Internet illimités dans les foyers français. Un document de la ...

Si le plafonnement des forfaits existe depuis belle lurette sur mobile, dont le réseau est techniquement limité par ses capacités de transport, il n’existe pas en France sur le fixe – mais on peut le trouver ailleurs, comme au Royaume-Uni. Dans ses déclarations, Neelie Kroes ouvre la voie à l’instauration de ces pratiques sur tout Internet – seul son exemple ne se réfère explicitement qu’au marché mobile. Si les utilisateurs le souhaitent, et si les opérateurs s’alignent, l’exception française de l’illimité risque de sauter.

Il en va de même pour le mobile, dont l’accès à Internet est déjà plafonné à un certain volume d’octets. Et réservé à certains pans de l’Internet : le peer-to-peer ou la voix sur IP (service tel que Skype) en étant par exemple exclus. Neelie Kroes a beau rapidement évoquer les travaux en cours du Berec, le régulateur européen des télécoms, sur les pratiques des opérateurs visant à restreindre l’accès à Internet des usagers, elle ne cherche pas à les limiter. L’idée est que les consommateurs puissent “choisir en toute transparence le service qui leur va, accès à un Internet complet compris s’ils le souhaitent.”

Et après tout, s’ils ne le souhaitent pas, l’accès à Internet pourra progressivement se resserrer. Autour de forfaits allégés, proposant uniquement des services populaires : Facebook, Twitter, YouTube,… Là où le bât blesse, c’est que les attentes des consommateurs se conforment aussi à ce qui leur est proposé : ils piochent dans ce qu’on leur offre. Sans forcément porter leur choix en étendard : en France, l’enthousiasme engrangé par l’arrivée de Free Mobile en est la preuve. Or ce sont les opérateurs qui façonnent l’offre commerciale. Une responsabilité qui engage les contours même d’Internet.


CC FLickR ter bug

]]>
http://owni.fr/2012/04/19/leurope-delaisse-la-neutralite-du-net/feed/ 18
Internet se fera sonder en profondeur http://owni.fr/2012/01/19/mesure-internet-inria-metroscope-qos/ http://owni.fr/2012/01/19/mesure-internet-inria-metroscope-qos/#comments Thu, 19 Jan 2012 11:09:58 +0000 Andréa Fradin http://owni.fr/?p=91343

Prendre le pouls d’Internet : c’est l’objectif que se sont fixés les scientifiques de l’Institut de la recherche en informatique et en automatique (Inria). Le projet intitulé “Métroscope” entend mettre en place un véritable “observatoire scientifique du réseau”, au service des chercheurs mais aussi des institutions et des citoyens.

Car si Internet a envahi le quotidien des Français, il existe assez peu de données permettant de comprendre ce qu’il se passe en son sein. En scrutant les entrailles du réseau, l’Inria pourra en déterminer les propriétés, en définir la qualité, guetter l’apparition de nouveaux usages. Permettant de répondre à des questions fondamentales ou futiles. Genre : “mais pourquoi ça rame ce soir ?” Le tout dans un esprit d’indépendance. Explications et présentation de cette nouvelle vigie avec Luc Saccavini, ingénieur de recherche à l’Inria, et principal responsable technique du futur observatoire d’Internet.

En quoi consiste le projet Metroscope ?

Inria a la volonté de mettre en place un observatoire scientifique de l’Internet. Cette volonté s’est concrétisée par le montage d’un consortium autour du projet Métroscope pour réunir l’ensemble des principaux acteurs français intéressés par un tel projet et organiser la recherche d’un financement.

La démarche principale consiste en la mise en place d’une plate-forme au service des scientifiques dans un premier temps, mais également des citoyens et des pouvoirs publics dans un second temps. Une équipe technique, de trois à cinq ingénieurs sera nécessaire pour déployer et maintenir l’outil opérationnel. L’objectif est aussi de fédérer une communauté de scientifiques autour de la plate-forme. Il devrait y avoir cinq équipes de recherche d’Inria, ainsi que six à sept partenaires : des universités, des organismes privés, des constructeurs, l’Arcep (Autorité de régulation des communications électroniques et des postes).

La plate-forme devra être ouverte et neutre : aucun intérêt particulier ne la porte si ce n’est l’intérêt scientifique. La demande de financement dans le cadre de l’appel à projets Équipements d’excellence “Equipex” de fin 2011 n’a pas été retenue, mais le projet demeure et une prochaine réunion entre les partenaires permettra de déterminer la suite à y donner.

Concrètement, que va observer Metroscope sur Internet ?

Avec cet observatoire l’Inria a comme objectif cible de pouvoir mener des observations “en tout point” (petits et grands sites, liens spécifiques, utilisateurs finaux, etc) et “de toute nature” (mesures techniques, d’usages, etc). Par exemple sur les aspects qualité de service d’Internet : regarder les propriétés d’un trafic, savoir le caractériser, déterminer le temps de réponse d’un site, la perte de paquets pour tel ou tel usage sur Internet… Ce qui permet par exemple de définir ce qu’il faut faire pour sur-dimensionner un “tuyau” – même si cette image du réseau peut mener à des erreurs d’interprétation. L’idée est d’obtenir des mesures précises dans le temps. Des données techniques fines s’appuyant sur des métriques bien standardisées (métriques IPPM notamment). Mais ce n’est qu’un aspect de l’observation.

Nous avons aussi réussi à impliquer des chercheurs en sciences humaines sur la plate-forme, afin d’étudier également les usages d’Internet. Nous disposons déjà de pas mal de données là-dessus : ce qui nous intéressera surtout ici sera l’évolution des usages, des services, des protocoles, et leurs détournements éventuels. Certains services, certains protocoles y mènent : il y a donc un véritable besoin. Par exemple le mail est devenu une façon de transporter des documents, alors qu’à l’origine c’était uniquement un moyen pour échanger des messages. L’étude des protocoles existant et nouveaux est intéressante car certains se rapprochent de l’organisation de la vie, des cellules…

Un bon exemple qui se rapproche de ce qu’on veut faire est Caida, aux États-Unis, qui publie des études sur Internet, ainsi que de nombreuses visualisations. D’autres initiatives, comme PlanetLab Europe au sein de celle, plus large, de OneLab, existent déjà et déploient des sondes pour observer le réseau.

Boîte noire

Comment mesure-t-on Internet ?

L’idée est de mesurer plus de choses, au plus d’endroits possibles, avec la plus grande précision possible. Nous allons déployer différents types de sondes pour observer le réseau. Par exemple, des sondes logicielles, qui sont soit actives (elles émettent du trafic) soit passives (elles observent le trafic). Ces sondes logicielles (de type OneLab) sont entièrement configurables pour permettre d’accueillir des campagnes de mesures spécifiques à un programme de recherche. D’autres sondes (de type Etomic) permettront l’observation du débit à un grain temporel très fin, sous la micro-seconde.

Certaines sondes permettront l’observation d’un service particulier. C’est le cas des sondes qui seront déployées par l’Afnic (Association Française pour le Nommage Internet en Coopération), l’un des partenaires du projet, pour observer le trafic DNS. D’autres sondes seront déployées chez des internautes volontaires pour participer à des campagnes de mesures.

Pour étudier le réseau dans sa globalité, il faut l’observer à l’échelle mondiale. Allez-vous placer des sondes au niveau des points d’échanges internationaux ?

On aimerait bien. Mais c’est quasiment impossible. La charte des points d’échanges internationaux insiste sur la neutralité des opérateurs de ces points d’échanges. Ils ne communiquent pas les informations sur les conditions de trafic (matrice des flux par exemple). Il s’agit d’informations technico-commerciales particulièrement sensibles. Pour le moment, c’est donc hors de portée.

Du coup, Metroscope sera un observatoire de l’Internet français ?

Le déploiement des sondes se fera principalement en France. Mais le déploiement de sondes de type OneLab dans le cadre du projet PlanetLab qui dispose déjà de sondes à l’international donnera des possibilités d’observations sur tout l’Internet. Enfin, il est dans nos objectifs de travailler avec des consortiums européens équivalents pour avancer vers une observation européenne, puis mondiale.

Les opérateurs juges et parties du net

Les opérateurs juges et parties du net

Le régulateur des télécoms cherche à déterminer la qualité du réseau français. Pour mettre en place le dispositif de ...

Sujet sensible

Certains disent qu’il n’est pas possible de “mesurer” Internet…

Dire qu’on ne peut pas faire quelque chose consiste à ne jamais rien faire. Ce projet d’observatoire est difficile donc c’est scientifiquement intéressant. Et au terme des recherches, plusieurs réponses peuvent être apportées ! Le chantier peut être trop complexe et oui, on dira alors que c’était trop difficile. Mais on peut aussi faire une partie du chemin, apporter des éléments de réponse à la question de la mesure d’Internet.

Quelles précautions avez-vous prévues pour encadrer ces mesures et l’utilisation des données récoltées ?

La mesure d’Internet est un sujet plus que sensible, ce qui explique la gouvernance extrêmement précise de l’observatoire. Au-delà d’un comité exécutif et d’un comité de direction classiques, nous avons aussi un comité scientifique et un comité éthique. Le premier donne accès ou non à la plate-forme et à ses résultats en fonction de la nature des requêtes des scientifiques. L’équipement est utilisé en priorité par les chercheurs d’Inria et de ses partenaires scientifiques, mais d’autres, extérieurs au projet, pourront y accéder s’ils en font la demande et si celle-ci est validée.

Avec le comité éthique, nous nous assurons que l’Observatoire n’est pas une boîte noire incontrôlée. Son spectre est très large : au même titre que le comité scientifique, il examine les demandes d’accès à la plate-forme des chercheurs extérieurs, en déterminant les conditions dans lesquelles ils peuvent ou non utiliser ces données. C’est la caution de vigilance et de transparence : si on installe une sonde chez un utilisateur, il faut qu’il sache ce qu’on va en faire, et ce qui sera fait des données récoltées.

Un être vivant

L’Arcep réfléchit à une méthode de mesurer de la qualité d’accès à Internet. Êtes-vous associé au groupe de travail ?

L’Arcep compte parmi nos partenaires et nous sommes déjà associés à la réflexion en tant qu’experts extérieurs. Nous avons été invités aux réunions de travail au côté des opérateurs, des équipementiers, des associations d’usagers et d’autres personnalités extérieures. Cela fait partie des missions d’Inria en tant qu’organisme de recherche public.

La situation sur le terrain est un peu contradictoire entre les fournisseurs de contenus et les fournisseurs d’accès. La volonté de l’Arcep d’établir sur une base scientifique la mesure de la qualité d’accès à Internet est positive, mais encore une fois, le terrain est difficile. Il faut trouver les bonnes méthodes : le régulateur nous a demandé de les y aider.

L’Arcep se dirigerait vers une solution uniquement tournée vers la pose de sondes matérielles chez l’utilisateur. Que pensez-vous de ce choix et des autres solutions écartées ?
L’Internet illimité au purgatoire

L’Internet illimité au purgatoire

L'idée de brider Internet était promise aux enfers. À en croire les opérateurs, en particulier Orange, le projet aurait ...

La solution offerte par le site Grenouille est bien, elle a le mérite d’exister depuis très longtemps et d’être facile à déployer [ndlr : le site propose une "météo du net" afin de "publier en temps réel les performances des différentes offres d'accès haut débit."]. L’inconvénient est que la mesure de la qualité d’accès à Internet dépend de l’activité du poste de travail de l’utilisateur. A côté, la sonde matérielle est une bonne idée. Reste à se poser les questions des conditions de déploiement, du panel représentatif d’utilisateurs et des mesures à effectuer.

Il y a donc des chances que vous mesuriez la qualité de l’accès à Internet sous la tutelle de l’Arcep ?

On a proposé notre aide pour opérer des sondes directement à partir de notre plate-forme. Si nous obtenons le financement, c’est une option que nous allons ouvrir.

L’Arcep veut fixer à terme un “niveau de qualité suffisant” à Internet. Une bonne idée ?

C’est une bonne chose de vouloir fixer ce niveau de qualité suffisante. Mais le problème du réseau c’est qu’il est un être vivant : il est difficile de reproduire un instant donné d’Internet. Mais ça ne veut pas dire que l’on ne peut pas, commencer par faire des comparatifs entre opérateurs est déjà une première étape possible.

De plus, le concept de “niveau de qualité suffisant” permettra de constater certaines pratiques sur le réseau. Prenons un scénario : si un FAI a un lien financier avec un producteur de contenu, il peut être tenté de jouer sur la qualité de service pour favoriser ce site en particulier auprès des utilisateurs. Ces choses seront visibles et accessibles.

De même, dans d’autres cas de figure, les opérateurs peuvent à tord être mis en cause : ils peuvent fournir une très bonne qualité de service, sans que l’utilisateur en profite, parce que le biais est introduit ailleurs (poste de travail, serveur applicatif, autre FAI). Les FAI craignent de se faire accuser à tort de diminuer la qualité de service. Avec cette mesure, l’idée est de fournir un tableau de bord avec l’accord de l’Arcep, des opérateurs et du grand public. Des données agrégées, synthétiques et reproduites dans le temps.

La gouvernance d’Internet reste un sujet ouvert. Internet n’a ni centre, ni patron, même si des géants existent. On peut donc constater ces scénarios s’ils se produisent. Quelque part, l’observation d’Internet relève d’une question citoyenne. Et les opérateurs y ont tout intérêt.

Free, SFR, Orange et Bouygues en autocontrôle

Free, SFR, Orange et Bouygues en autocontrôle

Accorder à Orange, Free, SFR et Bouygues le luxe de devenir les seuls juges de la qualité de leurs offres d'accès à ...

“Il y a de quoi faire en sorte que les réseaux ne soient pas saturés”

Pensez-vous qu’il y a un risque de voir les opérateurs faire pression sur la mesure pour orienter les résultats ?

Inria s’occupe de science. Si l’Arcep accepte notre aide, on ne recherchera évidemment aucune mainmise. Surtout dans ce domaine; l’observation d’Internet est très difficile. Il est important que cet instrument reste transparent, ouvert, bien géré, et qu’il serve l’expérimentation scientifique.

Nous aidons l’Arcep à réfléchir à la mesure de la qualité d’accès à Internet, à la neutralité des réseaux. Mais notre implication reste au conditionnel.

Pour justifier les entorses à la neutralité des réseaux, les opérateurs évoquent souvent une “saturation” de leur infrastructure. Les mesures de l’Observatoire permettront-elles de vérifier si cet argument est une réalité ?

Cette question relève plus de l’opinion que de Metroscope. Ce que je peux dire, c’est que la montée en puissance des équipements est continue depuis vingt ans. On parle de “saturation”, de bande passante “limitée”… Ce que j’observe, et m’en appuyant aussi sur des analyses prospectives menées sur l’évolution des industries électroniques (rapports de l’ITRS par exemple), c’est que cette montée en puissance n’est pas finie. Chaque fois qu’un facteur 10 est franchi dans la performance des équipements, c’est très cher au départ, puis ça diminue très vite.

Autrement dit, dans la technologie comme dans l’économie, il y a de quoi faire en sorte que les réseaux ne soient pas saturés. On peut s’appuyer sur un cas très précis : Renater (Réseau national de télécommunications pour la technologie l’enseignement et la recherche). L’échelle est certes réduite à la communauté académique (1000 établissements) mais Renater peut être vu comme un morceau significatif d’Internet. Le budget de financement est constant depuis longtemps. Nous n’avons jamais été dans une situation de devoir l’augmenter alors que les débits ont été très fortement augmentés. Autrement dit, il n’y a aujourd’hui aucun argument technologique ou financier qui indique qu’on ne puisse pas continuer à accompagner la montée de la demande en bande passante avec les équipements actuels.


Image par Anthony Mattox (cc) via Flickr

]]>
http://owni.fr/2012/01/19/mesure-internet-inria-metroscope-qos/feed/ 4
Les télécoms perdent toute autorité http://owni.fr/2012/01/12/les-telecoms-sans-autorite/ http://owni.fr/2012/01/12/les-telecoms-sans-autorite/#comments Thu, 12 Jan 2012 09:59:46 +0000 Andréa Fradin http://owni.fr/?p=93850

Entourés de quelques lieutenants, le patron de l’Autorité de Régulation des Communications Électroniques et des Postes (Arcep), Jean-Ludovic Silicani, a été assez bref dans son exposé relatif à la neutralité des réseaux. Le point, abordé en conclusion de la présentation, représente pourtant aux dires de ce dernier “la moitié du travail du régulateur sur les deux années à venir”. Un chantier considérable, dont Jean-Ludovic Silicani a tout de même rappelé l’importance : “c’est l’avenir des communications électroniques qui est en jeu”.

Qualité de service : l’Arcep n’a “pas choisi”

Sur le fond, deux volets ont été présentés : “le suivi de la qualité du service d’accès à l’Internet” et la “collecte régulière d’informations sur les conditions techniques et tarifaires d’interconnexion et d’acheminement des données”. Ils font suite à la publication par l’Arcep de dix propositions sur la neutralité des réseaux, en septembre 2010.

Free, SFR, Orange et Bouygues en autocontrôle

Free, SFR, Orange et Bouygues en autocontrôle

Accorder à Orange, Free, SFR et Bouygues le luxe de devenir les seuls juges de la qualité de leurs offres d'accès à ...

Concernant la qualité de service de l’accès à Internet, qui consiste à prendre le pouls du réseau français et à en évaluer les performances, OWNI s’interrogeait dès septembre (voir “Les opérateurs juges et parties du net”, “L’Internet illimité au purgatoire” et “Free, SFR, Orange et Bouygues en autocontrôle“) sur les enjeux et les risques d’un tel chantier. En particulier sur le fait de confier aux opérateurs la responsabilité du choix du prestataire externe qui sera en charge des mesures. À la question de savoir si une telle orientation ne risquait pas de biaiser d’emblée le résultat de cet observatoire du net, qui vise précisément à apprécier la qualité des prestations des gros opérateurs (disposant de plus de 100 000 clients), Jean-Ludovic Silicani botte en touche. Il explique que l’Arcep n’a “pas choisi” de confier cette responsabilité aux opérateurs, mais qu’elle s’est contentée de “respecter le décret” qui prévoit la mise en place de ce chantier. En effet, selon l’article D98-4 d’un décret d’application du Code des postes et des communications électroniques :

L’opérateur mesure la valeur des indicateurs de qualité de service définis par l’Autorité de régulation des communications électroniques.

Le patron de l’Arcep poursuit en expliquant que “pour les paramètres techniques, une définition précise sera donnée” et que le régulateur se garde le droit de “demander qu’un second prestataire vérifie que les méthodes de mesure ont bien été suivies”. Reste à savoir qui définira ces paramètres techniques, ainsi que la nature du second prestataire en charge des mesures de contrôle. Sur le premier point, un document de travail (voir image ci-dessous) indique bien que les paramètres, ou “référentiel commun”, seront définis “par l’Arcep et les opérateurs”. Le patron de l’Arcep assure néanmoins du contraire, précisant que “plusieurs acteurs” seront associés à la réflexion. Quant à la charge de la mesure de contrôle, il rétorque que cette contrainte relève également du décret d’application. Sauf erreur de notre part, cette précision ne figure pas dans le décret en question.

Visiblement agacé par la question, Jean-Ludovic Silicani a déclaré : “si le prestataire fait n’importe quoi, alors on le saura. L’auto-responsabilité des entreprises existent dans ce pays”, ajoutant que le régulateur faisait “confiance aux opérateurs”, sans pour autant “exécuter leurs ordres”. Et de conclure, en tâclant au passage le pouvoir politique :

Nous appliquons la loi. Si les parlementaires veulent attribuer plus de pouvoir à l’Arcep, ils doivent le prévoir !

La Fusion ? “Une question à l’intérêt mineur”

Le trac électoral de l’Hadopi

Le trac électoral de l’Hadopi

2012 se fera avec la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet (Hadopi), c'est ...

Autre question qui fâche : celle de la fusion des autorités administratives en charge des questions relatives à Internet. Arcep pour les “tuyaux” d’Internet, CSA pour les contenus audiovisuels, Hadopi pour le statut des oeuvres culturelles sur Internet. “Une question à l’intérêt mineur” pour Jean-Ludovic Silicani, qui s’est pourtant épanché sur les implications d’un tel scénario. “La question n’est pas tant la fusion, mais quelle régulation on souhaite”, a-t-il expliqué. Mettant en parallèle la régulation “très forte” qui prévaut au CSA, et celle “très légère” pour les questions Internet traitées au sein de l’Arcep, il a également abordé le sort en suspens des contenus audiovisuels sur Internet. Jean-Ludovic Silicani a aussi déclaré que s’il fallait fusionner des autorités telles le CSA et l’Arcep, il faudrait également envisager la “fusion des ministères” en charge de la Culture et du numérique, ainsi que les lois et codes qui régissent ces secteurs. A l’aube de la campagne présidentielle, la rivalité entre les deux secteurs culturels et numérique pour prendre en charge les problématiques du net est un point clivant, tant à l’UMP qu’au PS.

La conférence de presse a surtout été l’occasion pour l’Arcep de dresser l’état des lieux du marché des communications électroniques, fixes et mobiles. Sur le mobile, Jean-Ludovic Silicani a salué l’arrivée de Free, tout en se montrant prudent : “une offre c’est un prix et un service. La proposition de Free sur le prix est très concurrentielle. Il faut maintenant voir quel type de services Free offrira, notamment sur le service après-vente, sur lequel il est très attendu”. Il a également tenu à “tordre le cou à l’idée selon laquelle le secteur du mobile serait saturé ou mature”, se réjouissant notamment de “l’appétence des opérateurs pour la 4G”. Sur le fixe, les derniers chiffres des abonnements au haut débit et très haut débit ont été donnés. Le déploiement en très haut débit a été rapidement abordé. Le détail des chiffres est disponible dans le dossier presse [PDF] de l’Arcep.


Crédits photo : © Dominique Simon

]]>
http://owni.fr/2012/01/12/les-telecoms-sans-autorite/feed/ 5
Free, SFR, Orange et Bouygues en autocontrôle http://owni.fr/2012/01/06/operateur-fai-free-orange-sfr-bouygues-arcep-internet-qos/ http://owni.fr/2012/01/06/operateur-fai-free-orange-sfr-bouygues-arcep-internet-qos/#comments Fri, 06 Jan 2012 07:26:24 +0000 Andréa Fradin http://owni.fr/?p=93144

Les opérateurs en futurs gardiens de la qualité du net ! C’est le scénario ubuesque que le régulateur des télécommunications français s’apprête à réaliser.

L’Autorité de régulation des communications électroniques et des postes (Arcep) est chargée de mettre sur pied un système permettant de déterminer la qualité du service de l’accès à Internet. En d’autres termes, à prendre le pouls du réseau français en fonction de plusieurs critères – débit, temps de réponse des sites… Un suivi censé aider les internautes à mieux comprendre, et surtout à comparer, les offres Internet des différents fournisseurs d’accès (FAI). Pour ces derniers, cette observation du net peut donc constituer un argument commercial et stratégique. Problème : selon des documents de travail consultés par OWNI, les opérateurs principaux, Free, Orange, SFR et Bouygues, sont à la fois juges et parties. L’Arcep leur donne notamment la possibilité de “sélectionner le prestataire” responsable des relevés de mesure. Leur offrant ainsi le luxe de s’auto-évaluer.

“Les opérateurs doivent être mis au centre des travaux”


Pour l’Arcep, la répartition des tâches est claire : “les opérateurs doivent être mis au centre des travaux”, peut-on lire en conclusion d’une présentation en date du 30 novembre 2011. Ils choisiraient le prestataire en charge des mesures sur le réseau. Et seraient responsables des “travaux sur le référentiel commun”, qui, peut-on lire plus tôt dans le document, spécifie “précisément les mesures à effectuer”.

Les FAI, objets de la mesure, décideraient donc à la fois de l’inspecteur et des critères d’inspection. L’Arcep serait simplement en charge du “pilotage”, validant notamment les “évolutions du référentiel commun”. Quant aux “autres parties prenantes” (sic) – représentants des consommateurs, équipementiers, experts et chercheurs- ils devraient se contenter d’une “concertation”. Et encore, “périodique” :

Coordination périodique du groupe technique (ARCEP – opérateurs) avec les autres parties prenantes (représentants des utilisateurs, PSI, équipementiers…) au sein d’un groupe général.

Dépendance officielle


Les opérateurs juges et parties du net

Les opérateurs juges et parties du net

Le régulateur des télécoms cherche à déterminer la qualité du réseau français. Pour mettre en place le dispositif de ...

Fin septembre dernier, à la suite d’une première réunion de travail au sein de l’Arcep, OWNI se penchait sur les risques et les enjeux qui relèvent d’une mission visant à “mesurer” Internet. Les orientations d’alors laissaient déjà craindre une mainmise des FAI sur une opération pourtant censée lever l’opacité sur la qualité de leur prestation. La dégradation excessive et arbitraire du trafic Internet devait en particulier être passée à la loupe.

Tout en insistant sur le bien-fondé d’une telle observation du net, experts et professionnels engagés dans la réflexion insistaient sur l’importance de procéder à une mesure “véritablement ouverte et objective”. Suite à cette première réunion, l’association UFC-Que Choisir alertait également l’Arcep sur la nécessité d’une observation indépendante et détachée des FAI :

L’information relative à la qualité de service ne peut être pertinente que si elle est objective. Ce qui signifie que les mesures doivent être réalisées par des organismes indépendants mandatés par le régulateur (l’ARCEP). Les opérateurs ne doivent en aucun cas intervenir dans ce processus. De plus, un contrôle régulier du prestataire doit être réalisé pour être certain qu’il travaille de manière totalement indépendante. En effet, les organismes de mesure travaillent également pour les opérateurs, dès lors, il s‘agit d’éviter qu’ils tordent les résultats pour ne pas courroucer leur client.

Des chercheurs de l’Inria (Institut national de recherche en informatique et en automatique), présents au sein du groupe de travail, ont ainsi proposé d’associer leur projet d’un “observatoire de l’Internet” aux efforts de l’Arcep pour sonder le réseau.

Les mises en garde sont restées lettre morte : le rôle prépondérant des opérateurs dans l’évaluation du réseau français n’est pas seulement confirmé, il est aujourd’hui officialisé. Écrit et encadré dans les documents de travail. Contactée par nos soins, l’Arcep nous renvoie à sa conférence de presse du 11 janvier.

Miroir aux alouettes


Certes, le régulateur essaie de faire bonne figure, en affichant son ambition de produire des mesures “transparentes” et “objectives” ou en ouvrant la réflexion à une consultation publique [PDF]. Des tentatives aux allures de miroir aux alouettes.

Pour assurer “l’objectivité et la comparabilité des mesures”, l’Arcep explique ainsi dans le document en date du 30 novembre que le “prestataire externe” ne doit pas être “lié aux opérateurs”. Et se contredit quelques pages plus bas. Elle affirme également la nécessité de voir des “mesures précisément définies dans le référentiel commun”. Un référentiel établi, donc, par les opérateurs.

Difficile alors de croire que l’Arcep prendra effectivement des “dispositions particulières [...] pour assurer l’objectivité, la sincérité des mesures réalisées”, comme elle l’indique dans le communiqué de presse annonçant le lancement d’une consultation publique sur le sujet. De même, difficile d’accorder du crédit à cette consultation, qui sera suivie de la définition d’un “cadre général du dispositif de suivi de la qualité de service d’accès à l’internet”, tant les hypothèses de travail semblent déjà claires, définies et arrêtées dans l’esprit du régulateur. Et des opérateurs. Selon nos informations, l’Arcep a réaffirmé dans un échange confidentiel récent, que cette consultation publique précède bien la mise en œuvre du dispositif. Durant laquelle, quoiqu’il arrive, “les opérateurs seront amenés à choisir un prestataire de mesure”.


CC Marion Boucharlat

]]>
http://owni.fr/2012/01/06/operateur-fai-free-orange-sfr-bouygues-arcep-internet-qos/feed/ 8
La Belgique filtre ses pirates http://owni.fr/2011/10/13/la-belgique-filtre-ses-pirates/ http://owni.fr/2011/10/13/la-belgique-filtre-ses-pirates/#comments Thu, 13 Oct 2011 11:15:49 +0000 Quentin Noirfalisse http://owni.fr/?p=83099

Lundi dernier, en Belgique, la cour d’appel d’Anvers rendait une décision controversée dans le cadre de l’affaire opposant la Belgian Anti-Piracy Federation (BAF) qui regroupe de nombreux ayants droit, aux deux principaux fournisseurs d’accès belges, Belgacom et Telenet. Le juge leur a ordonné de bloquer l’accès au célèbre site The Pirate Bay – un portail dédié au partage de la musique et des films. Mettant ainsi en place un filtrage au niveau du nom de domaine. Au total, il s’agit de onze adresses ciblées, avec un délai de deux semaines pour les fournisseurs d’accès pour appliquer la décision de justice. Si les deux fournisseurs d’accès internet belges (FAI) n’obtempèrent pas, des amendes sont prévues.

À première vue, il s’agissait donc d’une victoire pour la BAF. D’autant plus qu’en juillet 2010, le tribunal de commerce d’Anvers avait rejeté son action en référé exigeant que les mêmes Belgacom et Telenet bloquent The Pirate Bay. Selon le tribunal, il était surprenant de la part de la BAF de demander une action en urgence alors que The Pirate Bay existait depuis huit ans déjà. Suite à ce refus, la BAF avait réclamé, dans un communiqué de presse, une intervention du gouvernement afin « de faire respecter la loi, aussi sur Internet ».

Dès le lendemain de la décision de justice, The Pirate Bay s’est fendu d’une note ironique sur son blog.

Aujourd’hui, nous avons appris que nous étions bloqués. Encore ! Bâillement. Quand arrêteront-ils – nous grandissons sans cesse en dépit (ou peut-être à cause) de tous leurs efforts. Donc, si vous vivez en Belgique (ou travaillez au Parlement européen, d’où nous avons des milliers de visites chaque jour), vous devriez changer votre DNS afin de contourner le blocage.

En quelques heures, le net proposait ainsi plusieurs solutions pour changer ses paramètres DNS afin d’accéder au site. Quelques jours plus tard, The Pirate Bay décidait, en plus et tout simplement, d’ouvrir un nouveau nom de domaine en Belgique : depiraatbaai.be vers lequel on est désormais redirigé lorsqu’on consulte www.thepiratebay.org à partir de la Belgique. Selon l’un des responsables de The Pirate Bay, « les noms de domaines belges sont un peu onéreux mais nous devons nous implanter là-bas», ajoutant que le verdict de la justice était « inconsistant ».

Une inconsistance qui est également soulignée par l’Association de protection des droits des internautes (la NURPA). Geek Politics a demandé à André Loconte, étudiant en ingénierie et porte-parole de l’association, d’étayer la position de la NURPA.

Pourquoi la NURPA est-elle contre la décision de la Cour d’appel d’Anvers ? Vous avez notamment relevé qu’elle pourrait aller à l’encontre de l’échange de contenus sous licences libres et creative commons via The Pirate Bay.

André Loconte : L’accès aux contenus sous licences libres et creatives commons constitue effectivement un des aspects du problème de la censure mais c’est au niveau de l’accès à l’information qu’il faut se placer. Le filtrage pour le filtrage, ou plutôt la censure pour la censure, au delà d’être inefficace, car les méthodes de contournement simples foisonnent, nous conduisent vers une politique de société dangereuse à différents niveaux.

Je le disais, il est simple de contourner quelque méthode de filtrage que ce soit (cf. notre réponse à la consultation de la Commission européenne sur les jeux en ligne[pdf, en]). Pas uniquement parce que les internautes font preuve d’ingéniosité mais parce que le réseau Internet a été développé pour offrir la plus grande résilience possible [en]. En terme de réseau, la résilience se traduit par la capacité de celui-ci à s’adapter naturellement à tout comportement anormal – la censure est une anormalité d’un point de vue technique – afin de remplir sa fonction (transmettre des octets d’un point A à un point B).

Internet est un réseau différent de ceux que nous avons connu à l’époque des téléphone en Bakélite ou que nous connaissons avec la télévision. Alors, la seule capacité du téléphone était d’interrompre la ligne un certain nombre de fois, dans un certain intervalle de temps. Ces interruptions étaient interprétées par le centrale qui mettait en relation l’interlocuteur adéquat. Le téléphone était un simple interrupteur. L’intelligence (la capacité à traiter l’information) était au cœur du réseau.

Internet a changé les règles du jeu. Désormais, chaque ordinateur est capable d’interpréter les informations qu’il reçoit et de les traiter. Cette caractéristique lui confère une capacité sans précédent puisqu’il lui est désormais possible de créer son propre réseau, son réseau parallèle ou « sa » parcelle d’Internet. Internet est un réseau a-centré. Les  fournisseurs d’accès à internet sont les « tuyaux » qui relient les individus entre eux afin que ceux-ci communiquent et échangent en interprétant eux-même les informations qu’ils reçoivent. L’intelligence est en périphérie du réseau.

Exactement comme le facteur, les fournisseurs d’accès à Internet acheminent les paquets sans se soucier de leur contenu. Insérer des mécanismes de censure au cœur du réseau (chez les fournisseurs d’accès à Internet) revient à enlever à l’internaute, au citoyen, cette faculté naturelle de traiter lui-même l’information.

Quels sont les risques posés par le blocage de The Pirate Bay ?

A.L : Premièrement, la surenchère. L’exemple tout proche de la France démontre que le « filtrage » n’est qu’une première étape vers des systèmes de surveillance  toujours plus intrusifs tels que le DPI (Deep Packet Inspection) souhaité par la HADOPI pour être en mesure d’espionner le trafic. En temps normal, les fournisseurs d’accès à internet (FAI) sont aveugles vis-à-vis des paquets que leurs tuyaux transportent, ils savent d’où ils viennent et où ils vont. Ils n’ont pas besoin de plus pour que l’échange se déroule dans de bonnes conditions.

La technique de DPI consiste à ouvrir chacun des paquets qui transitent pour déterminer si leur contenu est licite ou non. Dans le cas où le contenu du paquet est jugé illicite, le FAI le détruit et la communication est interrompue . En d’autres termes, un programme informatique, une machine, prend la place du juge pour déterminer la licéité ou non d’un contenu. Fantasme ? Malheureusement non. Ce sont des dispositifs semblables – vendus par des entreprises européennes – qui étaient/sont en place dans des pays tels que la Tunisie, l’Égypte, la Syrie, etc.

Les moyens techniques existent et les industries du divertissement poussent à leur usage pour une raison simple : à force de réprimer, bloquer, censurer les échanges P2P (de pair à pair), les internautes se tournent vers des modes de téléchargement nettement moins respectueux du réseau (direct download) et qui échappent aux dispositifs de censure mis en place jusqu’à présent.

Il me semble important d’expliciter cette nature « respectueuse » des échanges sur le réseau. Le P2P consiste à mettre en relation des individus qui possèdent un catalogue de contenus selon notamment le critère de la proximité : si votre voisin ou une personne à l’autre bout du monde possède un fichier que vous souhaiteriez copier, il est plus probable que la vitesse d’échange soit plus optimale depuis l’ordinateur de votre voisin que depuis celui de cette autre personne. Le P2P repose par ailleurs sur la répartition des échanges : un fichier sera rarement copié entièrement depuis une source unique.

Le direct download consiste quant à lui à se connecter à un point central et à télécharger, depuis ce point unique, l’entièreté du fichier. Ceci signifie notamment que plutôt que de favoriser les échanges nationaux (dont le coût est nul pour les FAI locaux), les échanges sont localisés et si la source du téléchargement venait à disparaître ou si le système l’hébergeant venait à subir une défaillance, plus personne ne pourrait accéder à la ressource. Le direct download recrée virtuellement de la rareté pour un objet – une œuvre dématérialisée – qui est par nature dans le paradigme de l’économie d’abondance.

À tout ceci s’ajoutent les enjeux économiques afférents : lorsque des personnes partagent des fichiers via P2P, il convient de qualifier l’action de non-lucrative ou n’ayant pas de but commercial, aucun des deux pairs ne sort financièrement enrichi de ce partage. Lorsqu’il s’agit de MegaUpload et autres RapidShare, la problématique est tout autre : l’utilisateur paie un abonnement à ces services et est soumis à de la publicité qui génère des revenus. On se trouve ici dans le cadre d’une transaction commerciale puisque l’un des intervenants retire un bénéfice patrimonial.

L’autre risque est que cette décision ne légitime des actions semblables par d’autres secteurs industriels. Imaginez demain les vendeurs d’albums photos qui s’indigneraient du préjudice que représentent les services en ligne tels que Flickr ou Facebook ; les vendeurs de cahiers de notes feraient également valoir leurs intérêts face aux plates-formes de blog ; les opérateurs de services téléphoniques se révolteraient de la perte colossale que représentent les outils gratuits de communication que sont Skype et Messenger. Ce dernier exemple n’est peut-être pas si fantaisiste.

Permettre la censure pour un motif économique, c’est permettre la censure à n’importe quel prétexte. C’est museler l’innovation et retirer aux citoyens leurs droits de communiquer, d’échanger librement et de s’informer.

En opérant un blocage au niveau des DNS, la justice semble ne pas avoir pris en compte la facilité de contourner une telle mesure. Comment expliquez-vous cela  ?

A.L : Il serait naïf de croire que la cour d’appel d’Anvers et la BAF ignorent l’inefficacité de la mesure requise. Dans les conclusions que nous publiions mardi dernier, il est clairement fait mention que la cour a évalué la possibilité d’imposer un blocage par IP mais y a renoncé en faisant valoir l’argument légitime de la proportionnalité qui, d’après la Charte des droits fondamentaux de l’Union européenne est défini comme suit :

(art. 52, 1) [...] des limitations ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général reconnus par l’Union ou au besoin de protection des droits et libertés d’autrui.

Cependant, puisque de nombreuses ressources sous licences libres sont impactées par cette décision imposant du blocage DNS et puisque le préjudice invoqué par la BAF n’est pas démontré, la décision rendue ne respecte pas ce principe de « proportionnalité ».

On peut imaginer que c’est en prévision des critiques portant sur les dommages collatéraux (nettement plus importants) lorsqu’il s’agit du blocage par IP que la cour à favorisé le blocage DNS. Mais il est assurément question de compréhension dans ce cas. Enfin, d’incompréhension plus précisément. La décision ordonne en effet que les domaines suivants soient bloqués :

1. www.thepiratebay.org,

2. www.thepiratebay.net,

3. www.thepiratebay.com,

4. www.thepiratebay.nu,

5. www.thepiratebay.se,

6. www.piratebay.org,

7. www.piratebay.net,

8. www.piratebay.se,

9. www.piratebay.no,

10. www.jimkeyzer.se.en

11. www.ripthepiratebay.com

D’après le « Domain Name System », dans le cas du premier élément de la liste, le « .org » est un domaine, « thepiratebay.org » en est un autre, et « www.thepiratebay.org » un troisième. Si l’on interprète de manière stricte la décision de la cour, seules les versions des adresses comprenant le sous-domaine « www » devraient être bloquées, pas « thepiratebay.org » ou « poire.thepiratebay.org ». Cette mesure n’a pas de sens face aux spécifications du DNS ou lorsqu’elle est confrontée aux usages communs si le but est effectivement de rendre ce site (du moins en apparence) inaccessible.

Assiste-t-on, avec cette technique de filtrage via les FAI, à un phénomène nouveau en Belgique ?

A.L : Le filtrage en Belgique n’est pas neuf, c’est le motif qui le justifie (la protection des droits de propriété intellectuelle) qui l’est. A cet égard, je citerai les conclusions de M. Cruz Villalón, avocat général de la Cour de justice de l’Union européenne qui, dans le cas Scarlet vs SABAM, indiquait :

«une mesure qui ordonne à un fournisseur d’accès à Internet la mise en place d’un système de filtrage et de blocage des communications électroniques aux fins de protéger les droits de propriété intellectuelle porte en principe atteinte aux droits fondamentaux. »

Je rappellerai que notre justice repose sur la démonstration de l’existence d’un préjudice. Dans le cas des infractions aux droits de propriété intellectuelle lors du partage de fichier sans but commercial, cet hypothétique préjudice n’est toujours pas démontré.

Billet initialement publié sur Geek Politics sous le titre « Blocage de The Pirate Bay : “Le filtrage pour le filtrage : une politique de société dangereuse” »

Illustrations et photos via Flickr par Martin Gommel [cc-by-nc-nd] et jb_Graphics (The Pirate Bay)

]]>
http://owni.fr/2011/10/13/la-belgique-filtre-ses-pirates/feed/ 6
[2/2]La neutralité du réseau pour les nuls http://owni.fr/2011/10/12/neutralite-reseau-internet-2/ http://owni.fr/2011/10/12/neutralite-reseau-internet-2/#comments Wed, 12 Oct 2011 17:47:11 +0000 Stéphane Bortzmeyer http://owni.fr/?p=82962

Stéphane Bortzmeyer est blogueur et membre de l’Afnic, Association française pour le nommage Internet en coopération. Cet “indigène de l’Internet, pas encore civilisé”, ingénieur, donne de la voix dans le débat sur la neutralité du réseau.

Ce principe, qui affirme que tout individu connecté peut consulter et diffuser n’importe quel contenu sur Internet, sans distinction, est mis à rude à épreuve dans la pratique. Couvert et observé dans les pages d’OWNI, le sujet est porté par de nombreuses voix, souvent divergentes. Stéphane Bortzmeyer tente d’y voir plus clair. Après une première partie exposant l’analogie de “l’homme au radeau”, c’est l’heure du grand ménage : dissection, un à un, des différents arguments présentés par les “anti-neutralité”.

Cet article fait suite à “Neutralité du réseau : l’homme au radeau”.


Je n’ai jamais demandé de triple-play, moi !

Un autre problème du débat sur la neutralité du réseau est la mauvaise foi généralisée, par exemple pour parler de questions techniques bien réelles.

Par exemple, le vocabulaire est systématiquement déformé. Ainsi l’utile “contrôle de congestion sert de prétexte pour favoriser son offre, en lui réservant des ressources réseaux.

De même, les services favorisés par l’opérateur sont rebaptisés “services gérés”, comme si le reste de l’Internet n’était pas géré et laissé à l’abandon ! Mais, évidemment, “service géré” sonne mieux que “service favorisé car nous rapportant plus”.

De même, les cas où des acteurs du réseau s’accusent réciproquement de “router selon le principe de la patate chaude” (comme dans l’affaire Comcast/Level3) ne doivent surtout pas être analysés techniquement : il s’agit de purs bras de fer, inspirés par une logique économique. Un des acteurs se dit qu’il a en ce moment l’avantage du rapport de force et il essaie de s’en servir pour obtenir de meilleures conditions. Pas de justice là-dedans, juste du business.

C’est la même chose avec les brusques depeerings qui défraient régulièrement la chronique. Ou quand un opérateur force le trafic d’un fournisseur à passer par des tuyaux artificiellement réduits (cas de l’affaire Megaupload/Orange).

Un des arguments favoris des FAI et opérateurs est que la télévision et la téléphonie (avec leurs exigences de qualité de service) nécessitent contrôle et filtrage (pardon, “gestion”) et ils en profitent pour étendre ce modèle à l’IP. Mais, justement, je n’ai jamais demandé de triple-play, moi.

Pourquoi diable ne puis-je pas avoir une simple connexion Internet, “faisant au mieux” ? C’est bien parce que les FAI l’ont décidé. Bref, ils ont créé eux-mêmes le problème dont ils prétendent aujourd’hui nous apporter la solution.

Asymétrie contre pair-à-pair

Il y a déséquilibre entre les gentils FAI qui assurent tous les investissements et les méchants fournisseurs de contenu comme Netflix qui injectent des giga-octets dans leurs réseaux sans avoir payé.
[ndlr : voir l'article "Netflix ne tuera pas Internet"]

C’est l’un des arguments favoris des adversaires de la neutralité et il mérite une discussion plus en détail.

En effet, s’il y a déséquilibre entre un acteur – typiquement un hébergeur de vidéos, car ce sont d’énormes quantités de données – qui envoie beaucoup d’octets et un autre acteur – typiquement un FAI qui a plein de globes oculaires passifs comme clients – qui ne fait qu’envoyer les biens plus petits d’accusé de réception, il y aura des problèmes et les solutions envisagées tourneront forcément à des idées anti-neutralité.

Un algorithme aussi inoffensif que celui de la “patate chaude”, parfait lorsque le trafic est à peu près symétrique, devient pénible pour l’une des parties dès que le trafic est très déséquilibré. Or, aujourd’hui, sur l’Internet, il y a un gros déséquilibre.

La plupart des hommes politiques, des journalistes, des gros acteurs économiques prônent un modèle TF1 : du contenu fourni par des professionnels, sur des plate-formes spécialisées, et des spectateurs crétins qui se contentent de regarder depuis chez eux. Un tel modèle mène à l’asymétrie de trafic, et aux conflits entre le FAI, comme Free, et le fournisseur de service YouTube.

Mais ce modèle n’est pas le seul et il n’est pas obligatoire ! L’Internet permet justement du trafic direct entre les utilisateurs, c’est une de ses principales différences avec les médias traditionnels. Si le pair-à-pair était plus utilisé au lieu d’être diabolisé, sur ordre de l’industrie du divertissement; avec des systèmes de sélection du pair le plus proche, le problème d’asymétrie se réduirait sérieusement et la neutralité du réseau ne s’en porterait que mieux..

La tentation du marché biface

Et sur l’argument “Google envoie des zillions de paquets sur notre réseau, ils doivent payer” ?

Un dirigeant de France Télécom, Éric Debroeck, affirme dans les Cahiers de l’ARCEP n° 3 [PDF] :

Les fournisseurs de service [comme YouTube, donc] sont à l’origine du volume de bande passante utilisée par leurs services [...].

Mais rien n’est plus faux ! Ce n’est pas YouTube qui nous envoie de force de la vidéo dans la figure. Ceux qui sont à l’origine de cette consommation de bande passante, ce sont les clients de France Télécom qui veulent voir des vidéos et qui ont la mauvaise idée de préférer YouTube au contenu très pauvre de “l’Internet par Orange”.

En gros, les FAI qui voudraient faire payer leurs clients, pour accéder à l’Internet, et les fournisseurs de contenus, pour qu’ils aient le droit d’envoyer leurs paquets sur le réseau, cherchent à créer un marché biface; un marché où l’intermédiaire est payé deux fois, ce qui est évidemment très intéressant pour lui.

Pour une régulation plus stricte

Le seul jeu du marché est clairement insuffisant pour amener à un respect de la neutralité du réseau. Il semble donc qu’il s’agisse d’un cas où une régulation plus stricte est nécessaire (de même que le secret de la correspondance privée, ou bien la non-discrimination par les transporteurs comme la Poste ou la SNCF sont déjà dans la loi).

Mais les difficultés commencent à ce point : comment traduire ces principes dans une loi, dans un texte ? Dire que “tous les paquets doivent être traités pareil” est un excellent principe mais son application se heurterait à des tas de difficultés.

Par exemple, étant donné qu’un des principes architecturaux de l’Internet est de faire la “signalisation” (en pratique, la maintenance des tables de routage) avec le même protocole, et en général dans les mêmes tuyaux que le trafic des utilisateurs, il est normal de prendre des mesures pour que certains paquets (OSPF ou IS-IS) soient favorisés. Après tout, il n’est dans l’intérêt de personne que le routage plante. Mais cet exemple illustre bien un problème courant en droit : dès qu’on essaie de traduire un grand principe en règles précises, voire algorithmiques, on rencontre tellement d’exceptions et de cas particuliers qu’il vaut mieux cesser d’avancer.

J’ai vu passer plusieurs suggestions mais aucune ne m’a semblé assez précise pour couvrir à peu près tous les cas.
Certaines peuvent même être dangereuses puisque, comme le note justement le blogueur Bluetouff, la quasi-totalité des lois concernant l’Internet en France sont des lois de contrôle, de flicage et de censure, et il ne faut donc pas forcément souhaiter une nouvelle loi.

Si le Chef du Clan du Taureau, qui a la plus grosse massue, impose une forme de neutralité au passeur, il pourra être tenté de l’assortir de règles comme fouiller les passagers – le DPI- pour vérifier qu’ils ne transportent pas de contenus illégaux.

Le problème des “DNS menteurs”

Un aspect de la neutralité du réseau qui est rarement mentionné, mais qui prend de plus en plus d’importance, est celui des DNS menteurs.

Ces résolveurs DNS des FAI qui se permettent de donner une réponse différente de la réponse originale sont clairement une violation de la neutralité des intermédiaires. C’est équivalent à un opérateur de téléphone qui redirigerait les appels pour la boutique de fleurs de Mme Durand vers celle de M. Dupont. Ou de notre passeur préhistorique qui dépose les clients à un endroit différent de celui qu’ils ont explicitement demandé.

L’AFNIC avait publié un très net avertissement sur ce point, rappelant l’importance de la neutralité.

C’est ainsi que, à l’été 2011, le FAI EarthLink redirigeait d’autorité les requêtes Google vers un serveur espion, en se servant de DNS menteurs.

De la même façon, les opérateurs d’un serveur DNS faisant autorité doivent évidemment répondre aussi vite pour tous les domaines, que ce soit monsieurmichu.fr ou tresimportantministere.gouv.fr.

Le piège des contenus “légaux”

Autre piège de langage qui se cache souvent dans les discours des anti-neutralité : affirmer que les utilisateurs ont droit à accéder à “tous les contenus légaux”.

Outre l’approche très Minitel – l’Internet ne sert pas qu’à “accéder à des contenus”-, cette formulation est dangereuse et doit être évitée. En effet, pour déterminer qu’un contenu est illégal, il vaut examiner très en détail le contenu transporté, et donc déjà violer la neutralité. (C’est bien pour cela que l’industrie du divertissement, toujours prompte à réclamer davantage de contrôle, s’oppose vigoureusement à la neutralité, qu’elle qualifie de “net impunité”.) La Poste achemine tous les colis, même illégaux et on ne voit personne proclamer qu’elle devrait ouvrir tous les paquets sous prétexte que “les usagers ont le droit d’envoyer toutes sortes de paquets, à condition qu’ils soient légaux”.

Le bridage sur mobile ? Des raisons économiques et non techniques !

Autre intrusion de la technique dans le débat : le cas des réseaux mobiles. L’argument anti-neutralité est que la capacité des réseaux sans-fil est bien plus limitée, et que cela justifie donc davantage d’attaques contre la neutralité de la part de l’opérateur. Il est vrai que les accès Internet 3G, par exemple, sont particulièrement bridés, avec beaucoup de services bloqués. Mais ce n’est pas pour des raisons techniques.

Le passeur avait sans doute raison de refuser les mammouths, qui sont objectivement trop lourds pour un simple radeau. Mais les opérateurs 3G ne suivent pas de principe technique objectif. Sur mon abonnement Bouygues, la téléphonie sur IP est interdite alors que la vidéo n’est pas mentionnée (et donc autorisée). Or, cette dernière consomme bien plus de ressources réseau. La violation de la neutralité par Bouygues n’est donc pas justifiée par des raisons techniques, mais par une logique de business : préserver la rente que représente, pour les opérateurs de télécommunication traditionnels, la voix.

Certaines personnes critiquant la neutralité du réseau ont prétendu dans le débat que l’IETF [ndlr: groupe qui participe à l'élaboration de standards d'Internet] avait donné son accord aux violations de la neutralité (ou plutôt aux “services gérés”” comme disent les lobbies aujourd’hui). L’IETF avait même dû faire un démenti. L’argument de ces personnes se basait sur des services de différenciation du trafic, comme le Diffserv.

La principale erreur de ce raisonnement est que Diffserv est un outil : si je fais cela dans mon réseau interne, pour m’assurer que mes sessions SSH< survivent à l'usage de YouTube par mes enfants, ce n’est pas un problème. Si un FAI se sert du même outil pour choisir les usages acceptables chez ses clients, il n’a pas le droit de dire que l’IETF l’y a autorisé : l’IETF a développé l’outil, celui qui s’en sert est censé être responsable de cet usage.

Quelques suggestions

Voilà, je suis loin d’avoir parlé de tout, et c’est pour cela que je vous recommande quelques lectures supplémentaires :


Cet article fait suite à “Neutralité du réseau : l’homme au radeau”.


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Et moi, qu’ai-je à dire de la neutralité du réseau ?”

Photos et illustrations via Flickr : Armando Alves [cc-by] ; Anthony Mattox [cc-by-nc]

]]>
http://owni.fr/2011/10/12/neutralite-reseau-internet-2/feed/ 5
[1/2]La neutralité du réseau pour les nuls http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/ http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/#comments Wed, 12 Oct 2011 11:45:53 +0000 Stéphane Bortzmeyer http://owni.fr/?p=82942

Stéphane Bortzmeyer est blogueur et membre de l’Afnic, Association française pour le nommage Internet en coopération. Cet “indigène de l’Internet, pas encore civilisé”, ingénieur, donne de la voix dans le débat sur la neutralité du réseau.

Ce principe, qui affirme que tout individu connecté peut consulter et diffuser n’importe quel contenu sur Internet, sans distinction, est mis à rude à épreuve dans la pratique. Couvert et observé dans les pages d’OWNI, le sujet est porté par de nombreuses voix, souvent divergentes. Stéphane Bortzmeyer tente d’y voir plus clair ; première partie, analogie : “la neutralité de la rivière”.

La suite de “Neutralité du réseau: l’homme au radeau”: “Neutralité du réseau: le grand ménage”


Ah, la neutralité du réseau… Vaste sujet, où ça part vite dans tous les sens, où la bonne foi est assez rare, où définir les principes est une chose mais où les traduire en termes concrets est étonnamment difficile… Que puis-je ajouter à un sujet sur lequel tant d’électrons ont déjà été agités ? Je vais quand même essayer de trouver quelques points de ce débat qui n’ont pas été trop souvent abordés.

Désaccord politique contre divergence philosophique

D’abord, comme ce débat a une forte composante technique, mais que les décisions sont prises par des non-techniciens, il faut expliquer de quoi il s’agit.

Le problème est assez simple. Si on veut savoir ce qu’est la neutralité du réseau, le plus simple est de regarder les gens qui l’attaquent (après avoir dit, bien sûr, qu’ils étaient pour cette neutralité mais, comme dirait Éric Besson, “sans absolutisme”). Les discours comme quoi la neutralité du réseau serait un frein à la civilisation viennent de qui ?

Des partisans de l’appropriation intellectuelle qui disent que la neutralité du réseau empêche de favoriser l’offre payante, ou bien des gros opérateurs qui expliquent que, pour notre bien, il faut les laisser faire ce qu’ils veulent ou encore d’un gouvernement de droite très hostile à l’Internet en général.

C’est toutes les semaines qu’on détecte une nouvelle atteinte à la neutralité de l’Internet par un de ces opérateurs. Pendant ce temps, les utilisateurs, les particuliers, comme les entreprises défendent fermement le principe de neutralité. Il est donc clair qu’il n’y a pas de divergence philosophique éthérée; il y a désaccord politique entre deux groupes, la neutralité de l’Internet étant défendue par les utilisateurs, la non-neutralité par les intermédiaires (opérateurs).

Un radeau et du réseau: le pouvoir de l’intermédiaire

Cela ne vous convainc pas ? Alors, il est temps de recourir aux analogies. Peu de débats ont autant utilisé les analogies que celui de la neutralité de l’Internet. On a comparé l’Internet à la Poste, aux autoroutes, à la distribution de l’eau, aux chemins de fer… Aucune analogie n’est parfaite et chacune a ses limites. Il ne faut donc pas les prendre trop au sérieux. Néanmoins, ce sont des outils pédagogiques utiles.

Alors, je vais présenter mon analogie à moi, en profitant pour recommander à toutes et tous les romans de Jean Auel (pour ceux qui ne connaissent pas, cela se passe dans la préhistoire et cela se veut assez réaliste).

Autrefois, donc, il y a vingt mille ans, les Cro-Magnon du Clan du Taureau n’utilisaient pas d’intermédiaires. Chacun fabriquait ce qu’il lui fallait et transportait ce qu’il avait besoin d’envoyer ailleurs. Si on voulait transmettre un cadeau à quelqu’un vivant à quelques kilomètres, on se mettait en route en portant ledit cadeau. Cela marchait très bien mais un problème de taille se posait : une large rivière coupait le paysage en deux et empêchait quiconque (sauf une poignée de nageurs sportifs) de traverser.

Un jour, un homme construisit un radeau, au prix de pas mal d’efforts, et se mit à faire traverser la rivière aux autres, en se faisant payer pour ses services. Tout changea car, désormais, les Fils du Taureau devaient faire appel à un intermédiaire. Et celui-ci comprit vite qu’il pouvait abuser de sa position. Il prit des décisions qui ne plurent pas à tout le monde :

  • Il décida subitement d’augmenter ses prix (deux poulets pour une traversée au lieu d’un) en disant qu’il devait financer la construction d’un nouveau radeau, l’ancien étant trop abîmé suite à l’usage important qui en était fait.
  • Il voulut faire payer les habitants de la caverne située de l’autre côté de la rivière, même lorsqu’ils n’utilisaient pas son radeau, en affirmant qu’ils profitaient quand même du service lorsque leurs amis ou relations d’affaires venaient les voir.
  • Un matin, il décréta qu’il ne ferait plus passer les Néanderthal du clan de l’Ours, en affirmant qu’ils n’étaient pas réellement des hommes dignes de ce nom.
  • Il permettait aux clients de traverser avec des animaux, mais décida que cette règle ne permettait pas de faire voyager des mammouths sur son radeau. “Ils sont trop lourds, et pourraient faire couler le radeau” affirmait-il.
  • Parfois, il rejetait telle ou telle personne, sans dire pourquoi.
  • Il voulut faire payer un homme plus cher, car celui-ci portait un kilogramme de cuivre, pour aller fabriquer des haches. “Le cuivre vaut très cher, il doit donc me payer plus”, disait le passeur. “Il faut faire payer uniquement au poids, un kilogramme de cuivre ou un kilogramme de légumes représentent exactement la même charge pour le radeau”, répondait son client.

À l’époque, tout cela se serait réglé avec quelques coups de massue. Quels sont les points communs à toutes les décisions de l’homme au radeau ? C’est qu’elles posent la question de la neutralité, non pas du réseau (qui n’est qu’un objet technique) mais de l’intermédiaire. Celui-ci profite de sa position. Après les coups de massue, faut-il légiférer pour préserver la “neutralité de la Rivière” ?

L’intermédiaire ne doit pas abuser de son rôle

Relisez bien les décisions du passeur. Elles sont en fait très différentes.

Certaines sont objectives. Refuser les Néanderthal est raciste mais objectif : la règle s’applique de manière uniforme. D’autres sont subjectives: le rejet arbitraire de certaines personnes. Certaines sont raisonnables (un mammouth adulte pèse entre six et huit tonnes, certainement plus que ce que le radeau peut supporter); d’autres le sont peut-être (l’augmentation des prix) mais, sans informations plus précises, il est difficile d’être sûr.

D’autres opposent la logique technique (un kilogramme de légumes est aussi lourd qu’un kilogramme de cuivre) à la logique du business (faire payer chaque client au maximum). Certes, cet exemple se situe dans un lointain passé. Mais les questions sont quasiment les mêmes aujourd’hui. La neutralité de l’Internet, c’est d’abord l’idée que l’intermédiaire ne doit pas abuser de son rôle.

Maintenant, comment cela s’applique t-il aux réseaux informatiques ?

Je ne vais pas faire le tour de toutes les questions sur la neutralité, plutôt discuter de certains arguments, techniques, politiques ou financiers. Comme le débat est complexe (il y a beaucoup de questions différentes, par exemple financement des infrastructures, flicage des contenus et des conversations, déploiement de la QoS [ndlr: notamment en France], lutte contre les clients qui abusent, etc.), rempli de mauvaise foi et de sous-entendus (par exemple les requins de l’appropriation intellectuelle attendant que les Fournisseurs d’Accès à Internet (FAI) déploient du DPI dans leurs réseaux pour leur demander par la suite de filtrer les violations du copyright); que tout le monde parle très fort, que presque tout a déjà été dit; je vais essayer d’être sélectif dans les points abordés.

L’opacité des infrastructures

D’abord, un point souvent oublié : l’importance de l’information. Lorsque le passeur ci-dessus, ou bien le PDG d’Orange aujourd’hui, expliquent qu’ils doivent faire payer plus pour supporter des investissements importants et nécessaires, on veut bien les croire sur parole mais, quand même, ne serait-ce pas mieux de vérifier ?

Cet argument financier est souvent brandi par les adversaires de la neutralité du réseau sans l’appuyer d’aucune donnée. Et pour cause, toutes les informations sur lesquelles s’appuie cet argument sont secrètes. Comme le note le rapport Erhel/de la Raudière, cité plus loin:

les marchés liés au réseau Internet restent opaques.

Alors, sérieusement, veut-on vraiment que le citoyen et le client acceptent les yeux fermés des arguments invérifiables ? Si les opérateurs croulaient tellement sous l’ampleur des investissements à faire, ne devraient-ils pas faire preuve de plus de transparence et publier tous leurs chiffres, qu’on puisse vérifier ? Le client et le citoyen devraient répondre: “OK, parfait, publiez tous vos comptes, une carte détaillés de vos infrastructures, vos informations de facturation, etc., et on en reparlera”. Le secteur manque cruellement de données fiables sur ce sujet. Il y aurait de très intéressantes études à mener si ces données étaient publiées.

Des offres Internet cryptiques

Liée à cette question, celle de l’information du consommateur. Une des demandes les plus fréquentes des adversaires de la neutralité du réseau est la possibilité d’avoir une offre à plusieurs vitesses, par exemple une offre de base bon marché et une offre Premium ou Platinum, plus coûteuse, mais de meilleure qualité. Bref, les riches auraient un meilleur Internet que les pauvres, comme la première classe est meilleure que la classe économique. Cela peut se discuter. [ndlr: voir l'exemple anglais sur Owni]

Mais une des raisons pour lesquelles cette demande n’a pas ma sympathie est que, si le voyageur aérien voit à peu près les avantages et les inconvénients de chaque classe, il n’en est pas de même pour les offres Internet. Regardez par exemple les offres en téléphonie mobile aujourd’hui et essayez, au delà du baratin marketing, de les classer, ou d’expliquer leurs différences. On constate aujourd’hui que très peu de FAI informent correctement leurs clients sur l’offre qu’ils leurs vendent. Essayez par exemple de savoir, avant de souscrire une offre 3G:

  • si vous aurez une vraie adresse IP publique ou bien une adresse privée
  • quels ports seront filtrés. Port 25 ? Port 53 ?

C’est un des points où mon analogie cro-magnonesque était faible : l’offre du passeur était évidente, transparente. Celle d’un accès à l’Internet est bien plus complexe.

Cette information sincère et complète des clients est donc un préalable absolu à toute acceptation de la logique d’un “Internet à plusieurs vitesses”. Le fait qu’aucun FAI ne documente son offre (selon le standard du RFC 4084) indique assez le souci qu’ils ont de ne pas tout dévoiler au client.

Or, même si on admet le discours (porté par exemple par l’ARCEP) comme quoi il est légitime d’avoir des offres différenciées (à des prix variables), alors, il faut être cohérent et que le client soit informé de ces filtrages, shapings“, etc. Or, aujourd’hui, toutes les violations de la neutralité par les FAI ont été faites en douce, voire en niant qu’elles avaient lieu. C’est par exemple le cas de Comcast avec le blocage de BitTorrent. Essayez de découvrir en lisant les Conditions Générales d’Utilisation de SFR ou d’Orange qu’est-ce qui est bridé ou interdit !

Le rapport Erhel/de la Raudière dit gentiment:

La transparence, qui apparaît relativement consensuelle, est laissée de côté dans la présentation du débat (tous les acteurs souhaitant que le consommateur puisse savoir quels sont les mécanismes de gestion de trafic mis en œuvre par les opérateurs et ce qu’il implique au niveau des fonctionnalités offertes).

Mais c’est de la pure politesse.

Oui, tout le monde dit qu’il est pour la transparence, mais cela ne se traduit pas dans les faits. Il faudrait donc édicter des règles, par exemple réserver le terme Internet pour le service neutre. C’est la proposition n° 5 du rapport Erhel/de la Raudière, équivalente au principe des AOC.


La suite de “Neutralité du réseau: l’homme au radeau”: “Neutralité du réseau: le grand ménage”


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Et moi, qu’ai-je à dire de la neutralité du réseau ?”

Illustrations CC FlickR mediafury (CC-by), colodio (cc-by-nc-sa), so amplified (cc by-nc-sa)

]]>
http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/feed/ 5