RSS

Archives de Catégorie: Internet

PME et IP : la fin du RTC, meilleur argument pour profiter des innovations en matière d’infrastructure et de services

Source : ZDNet

Technologie : Au 15 novembre 2018, le bon vieux téléphone dit « commuté » ne sera plus commercialisé. Près de 75% des TPE et petites PME ne s’en sont pas préoccupé. Or, à cette date, si elles n’ont pas opté pour une solution sur IP, elles ne pourront plus créer ou déménager de lignes téléphoniques dites « analogiques ». Beaucoup ignorent les avantages à passer au « tout IP »…

L’annonce de la fin du réseau téléphonique commuté (RTC) en France ne date pas d’hier… comme partout ailleurs en Europe. L’opérateur historique l’ex-France Télécom, soucieux de son coût de maintenance de plus en plus lourd (plus de 30 ans d’existence pour certains composants !) avait officiellement abordé le sujet dès 2011.

Le calendrier a été présenté en 2016 puis remanié à la demande de l’Arcep – qui a souhaité un étalement plus long. Les dates clés ont été définitivement validées en 2017. La sagesse du consensus, saluée par tous, a conduit à un calendrier de retrait plus que raisonnable. Il est grand temps de « migrer ».

A compter de ce 15 novembre 2018, Orange comme opérateur historique ne prendra plus de commandes de lignes dites « analogiques » sur le réseau commuté : la commercialisation est arrêtée.  Puis le 15 novembre 2019, ce sera la fin de commercialisation des lignes numériques T0 et T2 (Numéris), louées par des entreprises multi-sites.

Les lignes déjà installées fonctionneront encore mais seront fermées progressivement, lot par lot. Dès la fin de cette année 2018, Orange précisera la fermeture d’un premier lot de « plaques RTC ».

Le calendrier officiel de fermeture du RTC. Source Orange / Arcep

Leur fermeture ne sera pas immédiate mais étalée sur 5 ans, donc jusqu’en fin 2023. Et fin 2019, sera annoncée la fermeture d’un deuxième lot de plaques RTC, là encore étalée sur 5 ans. Et ainsi de suite pour le reste des plaques dont la date de fermeture, au-delà de 2025, n’est encore définie (cf. calendrier ci-contre). 

Le réseau cuivre va subsister

Le réseau physique (câblage de cuivre), lui, va subsister sans doute sur 10 à 15 ans, ne serait-ce que pour supporter les liaisons IP en ADSL et SDSL (pour les entreprises) – liaisons qui, chacun le sait, nécessitent d’installer une « box » ou un modem avec son alimentation électrique indépendante. 

Ce même réseau cuivre sera, quelque temps encore, utilisé pour certains téléphones d’ascenseurs ou systèmes de télésurveillance, mais il leur faudra une alimentation électrique autonome. On rejoint ici le créneau de l’IoT, ou objets connectés à Internet pour la télé-relève ou télé-conduite.

>>>A lire notre dossier, Fin du RTC : comment l’IP va tout changer<<<

« Tous les services déployés sur le RTC dans les entreprises, continueront à fonctionner au moins jusqu’en 2023 », assure Vannina Kellershohn, directrice des Solutions de Communications Unifiées et Collaboration chez Orange France.

En clair, l’existant fonctionnera. Mais dès qu’il s’agira de créer ou de déménager une ou plusieurs lignes, y compris pour un fax ou un terminal de paiement, ce ne sera plus possible dès ce 15 novembre 2018. Donc mieux vaut opter, dès à présent, pour une solution alternative. Et on en profitera pour se moderniser et gagner en efficacité, grâce à l’offre de services, innovants et régulièrement enrichis, le plus souvent  disponibles à travers des forfaits mensuels à la carte – donc sans investissements exorbitants.

Mieux informer les dirigeants des PME

Un fait est certain : les nouvelles communications téléphoniques sont désormais véhiculées en IP (Internet protocol). Certains prestataires téléphoniques sont prêts à installer une solution IP qui cohabite avec l’ancienne, jusqu’à sa fermeture dans les 2 à 3 ans.

On peut donc, au moins sur une période de transition, conserver son installation et ses vieux terminaux. Mais il est sage de planifier une date de bascule sans attendre la dernière heure.

Selon une enquête de MZA Research, en France, 75% des PME de plus de 200 personnes ont déjà fait la démarche, mais pas plus de 36% des TPE se sont penchées sur la question. Etonnant ? « La plupart des patrons de petites structures considèrent, à tort, que cela a peu d’importance. Ils ignorent, par exemple, les outils collaboratifs. Et ils attendent le dernier moment », constate Philippe Houdouin, p-dg fondateur de Keyyo Communications.

En fait, ces dirigeants des PME ignorent les avantages que les nouvelles solutions dites « tout IP » peuvent apporter. Les pouvoirs publics en ont pris conscience : à l’initiative de Bercy, une plateforme d’échange avec les offreurs et les formateurs va être mise en place cet automne.

Certains prestataires, comme NemoTech / Ozone (Philippe Le Grand, vice-président) suggèrent que soit poussée cette idée de « DSI partagés » entre plusieurs petites entreprises, tels des consultants de terrain intervenant, un à deux jours par semaine, sur des missions de déploiement.  

Alternatives à la téléphonie RTC et nouveaux usages

Le passage à la téléphonie sur IP peut s’opérer selon plusieurs options. Le choix se fait en fonction de la taille de l’entreprise mais surtout de la stratégie d’externalisation ou non des services.

« Les grands comptes et ETI sont passés depuis quelque temps déjà, à des solutions ‘tout IP’», constate Philippe Houdouin (Keyyo). Certains ont migré vers une solution de ‘centrex IP’ ( le système téléphonique est hébergé chez un prestataire), mais la plupart ont opté pour des solutions avec des déploiements assez lourds – des IPBX (autocommutateurs IP) installés soit en interne avec contrat de maintenance, assurance, etc., soit chez un prestataire hébergeur.

« Chez les PME comptant une centaine de postes voire jusqu’à 300 postes, nous constatons une forte accélération des demandes de migration vers le « tout IP », ajoute Philippe Houdouin. Cela signifie-t-il l’émergence de nouveaux usages, liés à la communication unifiée (messagerie instantanée, partage d’agenda et de documents en mode collaboratif, audio et vidéoconférence…) ?

« Oui, on voit notamment se généraliser des solutions de convergence « fixe-mobile » ainsi que des fonctions de téléphonie venant s’intégrer dans les applications métiers (CRM, ERP, PMS…), notamment pour les centres de contacts interne ».

Et où en sont les TPE ? « Elles commencent à prendre conscience des innovations possibles et s’y intéressent ». Un autre facteur contribue à la modernisation des PME : l’accès plus large à la fibre optique, avec les offres FTTH (fibre non dédiée) et FTTE (fibre dédiée). 

« La montée en capacité des grands opérateurs, avec une offre FTTH plus capillaire, contribue à les porter vers la téléphonie IP hébergée », ajoute Philippe Houdouin.

IPBX en interne ou hébergé et liaisons haut débit

SI l’entreprise dispose d’un autocommutateur (PABX) mis en place par un installateur depuis des années, ce dernier va sans doute préconiser son remplacement par un serveur IPBX. Le prix, selon le nombre de postes, va varier de quelques centaines d’euros à plus de 3.000 euros, pour plusieurs centaines de postes.

Exemple d’architecture de téléphonie avec IPBX

Le prix d’acquisition, pour une grande PME, peut paraître acceptable, mais il faut y ajouter la maintenance et le coût des mises à jour, créations ou déménagements de postes – s’il n’y a pas de service informatique interne ni personnel affecté à cette mission.

Une PME ou plus encore une TPE peut alors s’interroger sur l’intérêt d’investir dans un tel IPBX, même « virtualisé ». Il est de plus en plus courant désormais d’en louer le service à distance chez un prestataire télécom ayant une proximité géographique, garantissant des temps de connexion très courts.

Des solutions « Trunk SIP » en vente directe ou indirecte

Techniquement, les opérateurs de services télécoms, comme Keyyo Communications, parlent de liens ‘Trunk SIP’. Ces derniers permettent de faire circuler la voix sur IP (VoIP) entre un IPBX ou un simple modem et l’infrastructure hébergée à l’extérieur, et de gérer les comptes des clients vers les fixes et les mobiles, ou encore les fax par email comme les numéros spéciaux en France et à l’étranger, tout en procurant des accès Internet (ADSL ou SDSL, fibre optique dédiée ou non, par des liens le plsu souvent doublés).

Ces solutions sont développées en choisissant des partenaires – éditeurs de logiciels, équipementiers et opérateurs télécoms longue distance. Elles peuvent être commercialisées par des prestataires revendeurs.

L’entreprise cliente peut donc se limiter à la location de ces liens sécurisés auxquels s’ajoutent les forfaits télécoms et des accès Internet, généralement en « illimité ».

Les prestataires parlent alors de solutions de « téléphonie managée », hébergée dans leur datacentre ou, comme certains préfèrent dire, « dans le Cloud », tandis que d’autres parlent encore de «centrex ». Tout ceci converge sur un point : l’externalisation du service qui est payé selon des forfaits mensuels, les terminaux étant achetés ou loués.

Cette option de service externalisé peut être l’occasion de négocier des accès Internet plus confortables, qui vont permettre d’introduire de nouvelles applications de communication unifiée. Certains opérateurs proposent d’y adjoindre des services de sauvegarde de l’informatique, avec des forfaits à moins de 200 €.

Les solutions externalisées présentent également l’avantage de bénéficier de nombreux services, régulièrement mis à jour et en évolution. C’est le cas des services portant sur la convergence fixe-mobile (avec messagerie unique, rapprochement des annuaires, renvoi d’appels et appels indifférenciés depuis son smartphone ou depuis son poste fixe).

Fin 2017, Keyyo a introduit une telle solution intégrant à part entière le mobile au standard téléphonique de l’entreprise ».

Ce même prestataire a développé des connecteurs spécifiques pour se connecter, sur le Cloud, à des applications SaaS. Ainsi, un contrat de ‘peering’ signé avec Salesforce garantit la confidentialité et la sûreté des accès, « comme dans un Cloud privé ».

A leur tour, les grands opérateurs comme SFR Business et Bouygues Telecom lancent leur offre de téléphonie et de collaboration unifiée. Celle d’Orange, destinée aux PME de 50 à 500 salariés, est baptisée Teaming et fonctionne « dans le Cloud » (à 10 ou 20€/ mois par poste).

Même les constructeurs s’y mettent : Mitel annonce deux offres Cloud – My Cloud Flex (pour 50 à 100 postes) et My Cloud Connect (10 à 50 postes).

FTTH ou FTTE, le choix – idéal de la fibre

Pour les accès, il est clair que le choix de la fibre optique reste techniquement le meilleur – quand elle est disponible (zone « éligible ») et à un prix abordable pour l’entreprise. A noter que le « bon prix » est déterminé par les usages métier : c’est le montant mensuel minimal, considéré comme indispensable pour soutenir l’activité de l’entreprise.

>>>A lire notre dossier :  Le très haut débit, levier incontournable de la transformation numérique<<<

Avec la concurrence et l’innovation technologique, on parvient aujourd’hui à des tarifs pour la fibre très compétitifs autour de 100 € / mois, alors que l’on était à plusieurs centaines d’euros.

Ainsi, l’offre Connect de SFR Business (à partir de 10 Mbps, jusqu’à 1 Giga) démarre à 300 € sur fibre dédiée (FTTE). Et sur FTTH, son offre Box Business est promue « à moins de 100€, avec Wifi, ligne téléphonique illimitée… ».

ADSL ou  SDSL, ou liaisons radio

A défaut de fibre optique, les TPE doivent se satisfaire de l’ADSL (débits variables selon le trafic) – ce que va proposer SFR Business avec une ‘box’ pro. Car certaines petites structures ne peuvent pas se payer les débits symétriques du SDSL, lequel peut coûter plus cher que la fibre pour des débits pouvant être inférieurs (2 à 8 Mbps).

La solution ADSL peut se rapprocher du SDSL en étant doublée par des accès mobiles 3G/4G qui s’activent automatiquement en cas de coupure. Il existe également des accès radio hertziens à très haut débit dit ‘THD radio’, comme chez Ozone Pro, par exemple, garantissant jusqu’à 30 Mbps descendants et 5 Mbps montants, pour un coût allant de 60 à 130 €/ mois (capacité de 10 à 50 postes). Ces accès THD radio peuvent se combiner à des accès via satellite.

L’internet 4G en remplacement ou en secours

Ainsi, les liaisons ADSL peuvent être remplacées mais plus souvent secourues, par un lien radio. Le plus courant est dit « Internet 4G ». « C’est une solution de remplacement ou de ‘back-up’ automatique et transparent pour l’entreprise. Très rapide à installer, elle est intéressante, y compris dans des grandes villes car économique (20 €/mois), avec une sécurité importante et des débits se situant entre  2 et 80 Mbps », explique Philippe Houdouin (Keyyo).

D’autres TPE, de 2 ou 3 salariés, retiendront des solutions plus minimalistes, comme chez Bouygues Telecom, reposant uniquement sur un accès mobile à partir d’un poste téléphonique sur socle ressemblant à un téléphone fixe. En fait, il est doté d’une carte SIM 3G/4G mais les numéros d’appel fixes existants peuvent être conservés.

Publicités
 
Poster un commentaire

Publié par le 19 septembre 2018 dans Arcep, FAI, Internet, RTC, Téléphone fixe

 

Étiquettes : , ,

Skype 8 : pas d’échappatoire, il faudra migrer

Source: ZDNet

 

Mise à jour : Microsoft alerte ses utilisateurs sur l’évolution des futures mises à jour de Skype : à compter du mois de septembre, il ne sera plus possible d’utiliser la branche 7.x du logiciel de visioconférence et tous les utilisateurs Windows seront invités à passer sur la version 8.

Difficile de s’y retrouver dans les différentes versions de Skype : depuis son rachat par Microsoft, le logiciel de visioconférence a en effet évolué dans tous les sens. Les utilisateurs de Skype sous Windows peuvent ainsi choisir d’opter pour Skype 7.x, aussi connu sous le nom de version « classic », ou bien choisir Skype 8, la nouvelle version du logiciel publiée par Microsoft en fin d’année dernière, ou encore préférer la version UWP, pour Windows 10 desktop et mobile. Chacune de ses versions était maintenue indépendamment, mais Microsoft annonce vouloir mettre fin au support de sa version Classic et entend rediriger ses utilisateurs vers Skype 8 à partir du 1er septembre 2018.

Dans un post de blog, Microsoft indique ainsi à ses utilisateurs qu’à partir du 1 septembre 2018, la version 7 de Skype, ou version « classic » cesserait complètement de fonctionner et que ceux qui souhaiteraient continuer à utiliser le logiciel seront contraint de passer sur la version 8.

« Nous déployons constamment des améliorations du le logiciel, et cela signifie que nous devons mettre fin au support de certains services et versions devenues obsolètes » explique Microsoft sur son blog. En d’autres termes, Microsoft aimerait bien se débarrasser des versions jugées aujourd’hui obsolètes et mettre tous ses utilisateurs dans le même panier, à savoir celui de Skype 8.

La dernière version de la version 8 de Skype est la version 8.25. Les utilisateurs des versions Classic devront appliquer la mise à jour automatique qui leur sera proposée durant l’été afin de rester à jour, sans quoi ils ne pourront plus accéder au service au début du mois de septembre. La version 8 de Skype embarque tout un lot de nouvelles fonctionnalités par rapport à a version Classic, notamment des améliorations de qualité d’image pour la visioconférence.

Parmi les raisons qui peuvent pousser Skype à rassembler ses utilisateurs sous une seule et même bannière, on peut rappeler que des failles de sécurité avaient été découvertes en début d’année au sein de Skype Classic. Corrigées depuis longtemps dans les versions 8 du logiciel, elles continuaient d’affecter les versions plus datées du logiciel. Pour des raisons de sécurité, il était donc recommandé de passer sur Skype 8. Ça sera maintenant inévitable à partir du 1er septembre.

 
 

Étiquettes :

5 alternatives libres à Skype

 

Source : ZDNet

Technologie : Longtemps présenté comme l’outil indispensable pour faire des vidéoconférences ou de la messagerie instantanée, Skype a été détrôné pour certaines fonctions, mais pas toutes. Voici cinq solutions issues du monde open source pour s’en débarrasser totalement.

Que ce soit pour vos réunions d’équipes en télétravail, pour interviewer à distance un candidat ou simplement communiquer en déplacement, Skype a longtemps été indétrônable. Mais si vous ne voulez pas dépendre de Microsoft ou d’un autre éditeur pour vos communications, voici quelques solutions issues du monde open source, même si certaines sont proposées par des sociétés faisant payer une partie du service (le plus souvent le support).

Pidgin : l’ancêtre pour la messagerie

Conçu à la base pour pouvoir discuter avec ses amis quelque soit le protocole de messagerie instantanée qu’ils utilisaient (bien avant l’avènement des réseaux sociaux donc), Pidgin est toujours très actif dans les mondes Windows, Linux, ou Unix, en particulier parce qu’il offre une solution chiffrée de bout en bout et est facile d’utilisation. En revanche, sans plug-ins dédiés il ne propose aucune solution de conférence audio ou vidéo.

Suivant les protocoles choisis par vos interlocuteurs, vous pouvez y ajouter les plug-ins correspondants et avoir dans certains cas ces fonctions. A noter pour les utilisateurs Apple, Pidgin recommande Adium comme solution de remplacement.

Aller plus loin sur le site de Pidgin

Riot : la solution à la mode

Se voulant à l’origine une alternative à Slack, Riot est un couteau suisse de la communication : groupes de messagerie par équipe ou sujet dédié, outils de conférence vidéo ou audio, partage de fichiers, notifications…

Il fait tout et plus encore : il intègre différents outils, s’interface à d’autres outils de communication, et peut s’utiliser à partir du navigateur ou d’une application (sous macOS, Windows ou Linux comme sous iOS ou Android), et chiffrement de bout en bout des conversations et des fichiers échangés (en bêta). Et il est gratuit.

Aller plus loin sur le site de Riot

Linphone : la solution mobile

Pour les grands nomades, voici une solution de VOiP permettant la vidéo et la messagerie, principalement sur les appareils mobiles (smartphones ou tablettes, y compris celles sous Windows 10 et pour Blackberry 10), mais existant également en version desktop pour macOS, Windows ou Linux.

Il permet de communiquer en audio, en vidéo pour par textos, et permet la création de groupes de discussions, ainsi que l’envoi de fichiers joints. Le système, à la différence de Signal ou de WhatsApp, peut même s’utiliser en mode dégradé pour la voix et les appels par-dessus des réseaux 2G.

Aller plus loin sur le site de Linphone

Ring : une autre solution sur IP

Si vous ne souhaitez pas utiliser Linphone, vous pouvez jeter un œil à Ring. Les différences entre les deux solutions tiennent surtout entre le type d’appareils supportés, les langues supportées, et l’usage. L’avantage principal mis en avant par Ring est le respect de la vie privée de ses utilisateurs.

Et la possibilité désormais d’enregistrer ses appels vidéo. Toutefois, attention ce logiciel est toujours en version alpha et donc certaines fonctionnalités aussi simples que l’enregistrement de l’identifiant Ring de ses contacts ne sont toujours pas faciles à faire.

Aller plus loin sur le site de Ring

Jitsi : à télécharger ou en ligne

Si vous voulez une solution réellement simple, sans installation, notez juste l’adresse ci-dessous et en arrivant sur la page d’accueil cliquez sur Start a call, vous verrez un lien, un numéro de téléphone et un mot de passe à envoyer aux autres participants qui voudront se joindre à la conversation.

Vous pouvez également enregistrer vos appels ou les diffuser en direct, partager des documents ou des vidéos YouTube. Et si vous préférez avoir une application dédiée, c’est possible sur votre smartphone ou votre ordinateur sous Linux.

Aller plus loin sur le site de Jitsi


 
2 Commentaires

Publié par le 10 juillet 2018 dans Internet, Messagerie, Réseau social

 

Étiquettes : , ,

Facebook garde un œil sur les mouvements de votre souris

 

Source : ZDNet

Juridique : Aux États-Unis, Facebook a livré ses réponses écrites à questions posées par les élus du Congrès lors de l’audition de Mark Zuckerberg. Le réseau social clarifie notamment les données qu’il collecte sur ses utilisateurs et sur la surveillance de leur activité.

Le réseau social Facebook a publié en ligne un épais document rassemblant toutes les réponses écrites ayant été transmises aux élus américains à la suite de l’audition de son dirigeant Mark Zuckerberg par le Congrès. L’audience avait été particulièrement longue et les réponses écrites de Facebook sont à l’avenant : compilées, celles-ci représentent un peu plus de 225 pages, visant à apporter une réponse aux quelque 2000 questions écrites posées par le Congrès.

Si vous trouviez donc que l’audition au Congrès avait été un peu courte, c’est donc sur ce document qu’il vous faudra vous pencher . Facebook y détaille notamment les données que le réseau social collecte sur les utilisateurs, sur son site et de manière générale.

On y apprend ainsi que Facebook n’hésite pas à analyser les mouvements de souris de l’utilisateur : l’objectif affiché par le réseau social est avant tout de renforcer la sécurité de ses utilisateurs en utilisant cette métrique pour déterminer si l’utilisateur qui se connecte au réseau est un humain ou un bot. C’est globalement la même méthode que celle utilisée par Google et ses captchas, qui analysent le mouvement du pointeur de la souris pour vérifier qu’un internaute est bien humain.

Outre ces informations, le réseau social explique également dans ses réponses aux questions des élus américains collecter plusieurs types de données sur les internautes : système d’exploitation, matériel, versions utilisées, niveau de batterie, espace disque, présence ou non de connectivité bluetooth, nom des fichiers et leurs types ainsi que les informations liées à leur navigateur et aux plug-ins utilisés.

Facebook explique également collecter les données liées au fournisseur d’accès de l’utilisateur et à son type de connexion à internet, ainsi que les données liées « aux appareils situés à proximité » tels que des TV ou appareils domotiques connectés. Enfin, Facebook collecte les données liées au GPS, aux photos ou à la caméra de l’appareil si l’utilisateur a donné l’autorisation d’accès à l’une des applications mobile de Facebook.

Comme l’expliquait également le directeur de la sécurité de Facebook, ces informations ainsi que les informations liées aux sites visités par les utilisateurs sont utilisées par les équipes de sécurité de Facebook afin de vérifier que l’utilisateur qui se connecte à leur service est bien un utilisateur légitime.

 
 

Étiquettes : , ,

1.1.1.1 ou 9.9.9.9 ou 8.8.8.8 ? Quel DNS choisir ?

 

Source : Korben

@Korben  —  3 avril 2018

Vous n’en avez peut-être pas conscience, mais à chaque fois que vous tapez une URL dans la barre d’adresse de votre navigateur, celle-ci transite en clair jusqu’au serveur DNS que vous utilisez. Celui-ci se charge alors de la résolution du nom de domaine, et vous indique à votre machine comment se mettre en relation avec le bon serveur qui vous distribuera la donnée attendue.

Seulement voilà, niveau confidentialité, c’est pas top, car dans la majorité des cas, les appels DNS se font en clair. Ainsi, une entité située entre vous et le site contacté est donc parfaitement capable de savoir sur quel site vous allez. Après évidemment, comme la plupart des sites sont maintenant en HTTPS, ce que vous faites précisément sur ces sites est chiffré. Mais « on » sait encore sur quels sites vous allez.

Et cette donnée a de la valeur, car c’est grâce à cela qu’on peut enrichir de la « big data », analyser vos habitudes, mieux vous cibler pour vous afficher de la publicité…etc.

Pourtant des solutions existent comme DNS-over-TLS et DNS-over-HTTPS qui permettent d’encapsuler les requêtes DNS dans des protocoles chiffrés. Malheureusement, elles sont encore peu implémentées.

Toutefois, cela risque de changer, car Cloudflare qui accélère une grosse partie des sites de la planète grâce à son CDN, propose maintenant son propre DNS. Et il est encore plus facile à retenir que le 8.8.8.8 de Google puisqu’il s’agit du :

https://korben.info/app/uploads/2018/04/1.1.1.1-fancycolor.gif

Image 1

Ou encore :

  • 1.0.0.1
  • 2606:4700:4700::1111
  • 2606:4700:4700::1001

Ma première pensée lors de cette annonce a été par rapport à la vie privée des internautes. Car comme toujours, cela est une solution à double tranchant. En effet, le fournisseur du DNS sait sur quels sites vous surfez.

Le DNS de Cloudflare est un bon DNS, car il est le plus rapide, mais aussi parce qu’ils ont pris les devants et s’engagent à ne pas revendre les données, et ne conservent pas les logs au-delà de 24h.

Le principal avantage bien sûr c’est que contrairement au DNS de Google qui permet de mieux vous profiler pour vous balancer de la pub, on sait que Cloudflare ne trempe pas là dedans. Cela reste une boite américaine donc c’est évidemment à prendre avec toutes les précautions d’usage.

Donc OK pour l’internaute c’est super.

Mais j’imagine que pour Cloudflare, connaitre les requêtes vers l’ensemble des sites web d’un grand nombre d’internautes, va leur apporter un avantage technique et commercial pour mieux gérer et vendre leur réseau CDN.

D’un côté, Cloudflare vous rend service, mais en échange, vous lui fournissez vos données de surf. (car Cloudflare continuera à le savoir alors que les intermédiaires comme votre FAI seront dans le noir). Ce n’est ni bien, ni mal, mais il faut en avoir conscience.

Si cela vous dérange, vous pouvez toujours vous retourner vers un DNS comme celui de FDN ou celui de Quad9 dont l’IP est 9.9.9.9 qui est géré par une organisation à but non lucratif, et qui propose le même niveau de sécurité que celui de Cloudflare, avec je crois un peu d’intelligence dans la détection des menaces pour vous empêcher de vous retrouver sur des sites contenant des malwares ou des pages de phishing.

Il est un peu moins rapide, mais je pense que ça reste un bon compromis.

En tout cas, que vous choisissiez 9.9.9.9 ou 1.1.1.1, c’est à vous de décider, mais c’est l’occasion de stopper la collecte de vos données personnelles en passant par le 8.8.8.8.

 
Poster un commentaire

Publié par le 7 avril 2018 dans Internet, Serveur DNS

 

Étiquettes : ,

Zones blanches, couverture 4G : l’Arcep précise les nouvelles obligations des opérateurs

 

Source : ZDNet

Réseaux : Il y a une semaine, opérateurs, régulateur et gouvernement annonçaient un accord « historique » pour réellement accélérer le mouvement. On connaît désormais le détail de leurs engagements.

Sous la pression du gouvernement, les opérateurs télécoms ont accepté d’accélérer la couverture des zones blanches et de la 4G. Priorité aux zones blanches qui devront être résorbées, aux axes routiers prioritaire, aux zones rurales, tout doit être bouclé pour 2020. Tout le territoire devra ensuite afficher « une bonne » couverture au sens de l’Arcep.

Concrètement, ce sont 5000 nouveaux « supports » 4G qui devront être déployés, qui iront désormais au-delà des zones dites « blanches » et dont la charge sera désormais intégralement prise par les opérateurs. On en compte aujourd’hui 33.000 selon l’agence nationale des fréquences. Au total, c’est un investissement de 3 milliards d’euros sur 5 ans que devront consentir les opérateurs.

Pour compenser cet effort, BouyguesTel, Orange, SFR et Free ont obtenu gros. Dénonçant régulièrement le fait d’être pris pour des vaches à lait fiscales, ils n’auront pas à payer pour renouveler leurs précieuses fréquences. En effet, de nouvelles enchères étaient prévues, vingt ans après les premières, en 2021, 2022 et 2024. Ils pourront encore les utiliser 10 ans. Les redevances annuelles sont également gelées. 

Face à ces annonces, certains observateurs et députés se sont émus du flou artistique ambiant, pointant le manque de détails quant aux engagements des opérateurs. L’Arcep a entendu le message et a publié ce lundi le descriptif de ces engagements.

  • Sur la couverture

« Généralement, les autorisations des opérateurs contiennent des obligations formulées en termes de pourcentages de population à couvrir. De telles obligations ne permettent plus de répondre à l’ensemble des attentes des citoyens. Ainsi, il convient d’introduire un changement de paradigme en matière d’obligations devant être mises en œuvre par les opérateurs, afin de cibler au mieux les déploiements, et de répondre de la manière la plus adéquate possible aux attentes ».

A cet effet, les opérateurs auront une obligation visant à améliorer de manière localisée et significative la couverture. Pour ce faire, un dispositif prévoyant la couverture de 5000 nouvelles zones par opérateursera mis en œuvre.

Lorsque, pour un opérateur, une zone est identifiée où il n’est pas présent et que les pouvoirs publics lui demandent d’en améliorer la couverture, celui-ci aura alors l’obligation :

– d’apporter un service voix/SMS et un service mobile à très haut débit (4G) au plus tard 12 mois après la mise à disposition d’un terrain viabilisé et raccordé au réseau électrique par la collectivité territoriale, ou sinon au plus tard sous 24 mois. Ce délai de 24 mois tient compte des mesures de simplification des déploiements actuellement envisagées par le Gouvernement.

– en prenant à sa charge l’ensemble des coûts (équipements actifs, construction d’un éventuel pylône, collecte…).

– dans le cas où aucun opérateur ne disposerait d’une bonne couverture voix/SMS sur la zone considérée, en mutualisant en RAN sharing avec l’ensemble des opérateurs partie au dispositif, dans les autres cas, en partageant à minima les éléments passifs d’infrastructures avec les autres opérateurs ayant reçu une demande de déploiement sur la zone.

Pour la mise en œuvre du dispositif, un rythme de déploiement a été défini dans la limite, au total, de 5000 zones par opérateur. Ainsi, le Gouvernement fournira une liste de zones dans ce cadre, jusqu’à 600 zones par opérateur en 2018, 700 en 2019, 800 en 2020, 2021 et 2022, puis 600 par an et par opérateur au-delà (à comparer aux 541 zones blanches identifiées ces trois dernières années selon l’ancienne définition).

S’agissant des axes routiers prioritaires, Orange, SFR et Bouygues Telecom s’engagent à assurer leur couverture en voix/SMS et en très haut débit mobile (4G) d’ici fin 2020 avec un premier niveau de qualité (le service doit être disponible à l’extérieur des véhicules. En conséquence, il sera également souvent disponible à l’intérieur des véhicules en déplacement, mais pas toujours, précise le régulateur).

Par ailleurs, pour ce qui concerne les futures autorisations d’utilisation des fréquences 1800 MHz qui seront attribuées à l’issue de la procédure, les opérateurs qui ont une obligation de couvrir en 2G ces axes au titre d’autorisations d’utilisation de fréquences accordées avant 2010, devront rendre ces services – voix/SMS et très haut débit mobile (4G) – disponibles avec une qualité plus élevée (service disponible à l’intérieur des véhicules en déplacement) au plus tard 10 mois après la mise à disposition des fréquences de la bande 1800 MHz (2021 ou 2024 selon les cas, + 10 mois). Les autres opérateurs qui obtiendraient des fréquences dans la bande 1800 MHz à l’issue de la procédure de réattribution devront respecter cette même obligation 24 mois après la mise à disposition des fréquences de la bande 1800 MHz.

S’agissant du réseau ferré régional, les opérateurs qui obtiendront des fréquences dans la bande 1800 MHz à l’issue de la procédure de réattribution devront couvrir 90% des lignes d’ici fin 2025, à des fins de collecte de la couverture Wifi à l’intérieur des trains. A cet effet, la couverture doit être disponible le long des voies.

Concernant la 4G au global, les opérateurs devront fournir un service très haut débit mobile sur l’ensemble des sites d’ici fin 2020 en équipant tous leurs sites existants (2G/3G) ainsi que tous leurs nouveaux sites en 4G. Pour s’assurer de la disponibilité d’un service 4G d’une bonne qualité, le déploiement de la 4G devra être accompagné d’une collecte suffisante.

En tout état de cause, les opérateurs devront dimensionner leurs sites de sorte à assurer en zone peu dense un service raisonnablement équivalent à celui qu’ils offrent sur le reste du territoire.

Par exception, s’agissant spécifiquement des sites du programme « zones blanches centres-bourgs », ceux-ci devront être équipés en 4G, dans les mêmes conditions que ci-dessus, à 75% d’ici fin 2020 et 100% d’ici fin 2022.

  • Concernant le indoor

Orange, SFR et Bouygues Telecom s’engagent à mettre en service en 2018 les services Voix et SMS sur wifi sur leur cœur de réseau, et activer l’option par défaut pour tous les clients ayant un terminal compatible. Free Mobile, quant à lui, s’engage à mettre en service la Voix et les SMS sur wifi d’ici fin 2019, ou une offre Femtocell apportant un service équivalent.

En complément, les quatre opérateurs s’engagent à disposer d’ici fin 2018 d’une offre permettant à des entreprises ou des personnes publiques, pour un tarif abordable, de demander une amélioration de la couverture des services Voix/SMS et data à l’intérieur des bâtiments pour permettre aux clients d’avoir accès à la couverture de l’ensemble des opérateurs. Pour ce faire, les opérateurs pourront recourir à toutes solutions technologiques adéquates, telles que la voix/SMS sur wifi, les pico cellules, les répéteurs, les DAS, etc.

Lorsqu’une telle offre est souscrite auprès d’un opérateur, les autres opérateurs auront en conséquence l’obligation de rendre leur service disponible, dans des conditions techniques et tarifaires inter-opérateurs raisonnables.

  • Amélioration de la qualité de service

Les opérateurs devront désormais respecter des obligations correspondant à un niveau d’exigence renforcé. Cette nouvelle obligation sera contrôlée par un test technique consistant à réaliser des appels sur le terrain tout en atténuant artificiellement le signal. Cet effort pour généraliser la bonne couverture sera progressif et se traduira par un échéancier contraignant dans les futures autorisations d’utilisation des fréquences 900 MHz qui seront attribuées à l’issue de la procédure.

Pour les opérateurs disposant d’autorisations dans la bande 800 MHz, une première échéance sera fixée trois ans après la mise à disposition des fréquences en bande 900 MHz (2021 ou 2024 selon les cas) et une seconde sept ans après la mise à disposition des fréquences.

Pour les autres opérateurs qui obtiendraient des fréquences dans la bande 900 MHz à l’issue de la procédure de réattribution, l’échéance sera en 2029. Chaque année, les opérateurs transmettront un point d’avancement à l’Arcep, en vue de s’assurer que la trajectoire de déploiement est compatible avec ces objectifs.

  • Transparence

Les opérateurs devront publier en 2018 sur leur site Internet ainsi que dans un format électronique ouvert et aisément réutilisable une liste à jour des antennes-relais qui sont hors service pour cause de maintenance ou de panne.

  • Mutualisation

Afin de pouvoir atteindre les objectifs d’aménagement du territoire ainsi décrits, une part de mutualisation passive entre les opérateurs parait nécessaire, au-delà de la mutualisation active. Ainsi, les opérateurs devront : partager les installations passives sur les sites quand la zone n’est pas une zone correspondant à la mise en place d’un RAN sharing entre tous les opérateurs ; au-delà de cette obligation, consulter les autres opérateurs, lors de l’installation sur un nouveau pylône, pour savoir s’ils veulent également s’installer sur le pylône, et dans ce cas accepter les demandes raisonnables de partage passif dans des conditions garantissant l’effectivité de l’accès.

  • 4G fixe

L’usage des réseaux mobiles 4G pour fournir un service fixe (ci-après « 4G fixe ») pourrait être développé dans les zones où les débits fixes ne sont pas satisfaisants – en particulier lorsqu’ils sont inférieurs à 8 Mbit/s – et où aucune autre solution ne serait mobilisable à court terme. A cette fin, les opérateurs de réseau mobile devront :

– proposer, sur leur réseau mobile, en 2018, et a minima dans certaines zones qu’ils identifient et rendent publiques, une offre de « 4G fixe » destinée au grand public. Ces offres devront proposer une quantité minimale de données associée à un débit non bridé, sauf mesures de gestion de trafic raisonnables et conformes au règlement sur la neutralité de l’Internet. Par ailleurs, selon la situation géographique du local à connecter, une antenne externe à installer au domicile du client final pourra être fournie par l’opérateur afin d’optimiser la qualité de la connexion.

– répondre aux demandes du Gouvernement de rendre cette offre disponible sur des zones géographiques identifiées. Cela couvrira plus particulièrement deux cas de figure : sur une zone déjà couverte en 4G par leur réseau mobile, assurer la disponibilité commerciale de l’offre 4G fixe sur cette zone, sauf indisponibilité dûment justifiée d’une capacité suffisante pour assurer la préservation d’une qualité de service satisfaisante pour les utilisateurs mobiles ; en complément, Orange et SFR s’engagent à déployer chacun, sans obligation de mutualisation, 500 nouveaux sites 4G, pouvant notamment répondre à des insuffisances de couverture ou de capacité à des fins de disponibilité effective de la 4G fixe dans les zones géographiques identifiées par le Gouvernement, en concertation avec les opérateurs concernés.

 
Poster un commentaire

Publié par le 24 janvier 2018 dans 4G, Arcep, FAI, Internet, Très Haut Débit, Wi-Fi

 

Étiquettes : , , , ,

Wi-Fi : le protocole WPA3 en vue pour 2018

 

Source : ZDNet

Chahuté par à l’automne par la faille KRACK, la Wi-Fi Alliance promet des améliorations sur le protocole de connexion sans fil WPA2 et l’arrivée prochaine de son successeur, WPA3.

La Wi-Fi Alliance, une organisation qui rassemble les principaux acteurs de l’industrie, annonce des améliorations sur la norme WPA2 (Wi-Fi Protected Access) et l’arrivée en 2018 de la norme WPA3.

Les améliorations sur le WPA2 portent sur la configuration, l’authentification et le chiffrement du protocole. La promesse ? Des améliorations apportées aux tests afin de réduire les risques de vulnérabilités « dus à une mauvaise configuration du réseau », et une meilleure protection « des réseaux gérés avec des services d’authentification centralisés ».

La fonctionnalité Protected Management Frames devrait être mise en place sur le protocole WPA2. Par ailleurs l’organisation annonce des contrôles supplémentaires pour réduire le risque de vulnérabilités dues aux mauvaises configurations réseau et également l’implémentation de d’outils de chiffrement standardisés. WPA2, connu également sous le nom de la norme 802.11i, a été rendu public au mi-temps des années 2000.

Quatre nouveautés pour WPA3

« Quatre nouvelles capacités pour les réseaux Wi-Fi personnels et d’entreprise apparaîtront en 2018 dans le cadre du Wi-Fi Certified WPA3 » assure par ailleurs la Wi-Fi Alliance. « Deux de ces fonctionnalités offriront des protections robustes même lorsque les utilisateurs choisiront des mots de passe qui ne répondent pas aux recommandations de complexité habituelles » mentionne un communiqué.

WPA3 devrait être en capacité de faire face aux attaques de force brute, en bloquant définitivement l’attaquant après quelques tentatives d’intrusion. De quoi simplifier le processus de configuration de la sécurité pour les périphériques dont l’interface d’affichage est limitée ou inexistante. On pense bien évidemment à l’armada des objets connectés de l’Internet des objets.

« Une autre fonctionnalité renforcera la confidentialité des utilisateurs sur les réseaux ouverts grâce au chiffrement individualisé des données ». Le protocole WPA3 doit donc permettre de chiffrer toutes les données qui transitent sur des réseaux Wi-Fi publics. Cela signifie que chaque utilisateur devrait être en capacité d’utiliser un canal privé.

Enfin, « une suite de sécurité 192 bits, alignée sur la suite CNSA (Commercial National Security Algorithm) », doit protéger davantage les réseaux Wi-Fi assure le document. A noter que les appareils qui embarqueront le WPA3 seront toujours labellisés « Wi-Fi Certified ».

Adapter le Wi-Fi à l’air du temps

La découverte d’une faille de sécurité sur le protocole WPA2 en octobre dernier, une faille nommée Krack, avait de fait rendu nécessaire une évolution du protocole à court terme. C’est chose faite avec cette double annonce. Certes, la faille Krack découverte par l’ICASI (International Consortium for Advancement of Cybersecurity on the Internet) avait été patchée, et la Wi-Fi Alliance avait relativisé la portée de l’attaque.

« Les utilisateurs peuvent s’attendre à ce que leurs appareils Wi-Fi, qu’ils soient patchés ou non, continuent de fonctionner correctement » mentionnait l’association, précisant qu’il n’y avait « pas de preuve que la vulnérabilité ait été exploitée de manière malhonnête » à ce stade.

Si WPA3 doit renforcer techniquement la sécurité du dispositif, sa fonction consiste aussi à rassurer industrie et utilisateurs sur la capacité de l’organisation a faire évoluer son protocole au regard des évolutions technologiques des connexions sans fil. Reste que le passage effectif des appareils de WPA2 à WPA3 risque d’être lent, puisque suite à la publication du protocole par la Wi-Fi Alliance, il faudra ensuite que les fabricants de matériel le mettent en place dans leurs propres gammes de produit.

 
Poster un commentaire

Publié par le 10 janvier 2018 dans Internet, Wifi

 

Étiquettes : , ,