|
Modérateurs: Modération Forum Loisirs, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 1 invité
Un forum dédié aux échanges sur : apprendre, se cultiver, des formations, etc...
Règles du forum
Merci de bien respecter la Charte HCFR, l'espace de loisirs proposé ici n'étant pas destiné à être un défouloir ou une foire d'empoigne.
Et pour mémoire, la Charte HCFR est directement consultable ici : Charte Forum HCFR
Il est aussi expressément à noter, que tout démarchage commercial - de quelque nature qu'il soit - n'est pas autorisé et sera modéré.
Merci de bien respecter la Charte HCFR, l'espace de loisirs proposé ici n'étant pas destiné à être un défouloir ou une foire d'empoigne.
Et pour mémoire, la Charte HCFR est directement consultable ici : Charte Forum HCFR
Il est aussi expressément à noter, que tout démarchage commercial - de quelque nature qu'il soit - n'est pas autorisé et sera modéré.
Le coin des sciences avec Robert64
Pour éviter de polluer d'autres sujets, je propose de grouper ici les infos de nature technique ou scientifique, hors astro
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
Traduire comme on joue au GO ?
30.09.2016, par François Yvon
(D'après le journal du CNRS)
Les récents progrès réalisés dans le domaine de l’intelligence artificielle impressionnent, comme l’a montré la victoire du logiciel AlphaGo sur le champion du monde de Go. Il y a pourtant des domaines qui résistent encore et toujours à la mise en algorithme, notamment la traduction. François Yvon, spécialiste du sujet, nous explique pourquoi.
La récente victoire du logiciel AlphaGo surclassant le champion du monde de Go a relancé les spéculations sur l’intelligence des machines, ainsi que sur les limites et les dangers de leur développement. De nombreuses compétences humaines semblent pourtant résister à la mise en algorithme. Parmi celles-ci, la traduction, dont les efforts d’automatisation, entamés dès les années 1950, continuent de se heurter à des difficultés apparemment insurmontables. La méthode d’AlphaGo ouvre-t-elle de nouvelles perspectives pour résoudre cette tâche, souvent présentée comme une des plus difficiles pour une intelligence artificielle ?
La recette du succès d’AlphaGo est bien connue et prolonge une tradition de recherche déjà ancienne sur la modélisation des jeux. Le programme aborde une partie comme une succession de décisions locales et doit donc, pour bien jouer, développer deux compétences :
- sélectionner le meilleur coup dans l’ensemble des coups autorisés, étant donné l’état courant du jeu, sur la base d’une évaluation de son bénéfice à long terme. Cela implique de prendre en compte toutes les réponses possibles de l’adversaire, puis les réponses à ces réponses, etc. Explorer exhaustivement cet arbre de possibilités est infaisable et demande de mettre en œuvre des stratégies heuristiques, qui font l’objet d’un apprentissage par AlphaGo ;
- évaluer une position comme étant plutôt gagnante ou perdante, cette fonction d’évaluation étant également l’objet d’un apprentissage.
AlphaGo réalise ces deux apprentissages avec des réseaux de neurones artificiels dits profonds, en analysant à la fois des parties réelles (jouées par des joueurs experts), mais également à partir d’un très grand nombre de parties artificielles, produites en faisant s’affronter deux versions du logiciel.
Qu’en est-il de la traduction automatique (TA) ? Comme pour le Go, les approches les plus efficaces à ce jour reposent essentiellement sur un apprentissage automatique. La traduction est ainsi modélisée comme une succession d’actions élémentaires, consistant à ajouter un mot à la traduction à chaque itération du système. Un bon système de TA doit donc savoir quel prochain mot produire parmi tous les mots de son dictionnaire, en tenant compte des mots produits antérieurement, ainsi, naturellement, que de la phrase à traduire. L’utilisation de méthodes statistiques similaires à celles déployées pour AlphaGo pour apprendre à faire ces choix a permis des améliorations considérables de la TA. Quelles en sont les limites ?
Une première observation est que le calcul du meilleur coup à jouer demande que l’on puisse évaluer automatiquement le bénéfice escompté de chaque action : au Go, cette évaluation est simple et se déduit du résultat (gain ou perte) de la partie conduite à son terme. Il en va autrement en traduction : l’évaluation automatique de la qualité du résultat d’une traduction reste un défi extrêmement difficile à relever.
Notons ensuite que, dans cette analogie, jouer un coup équivaut à produire un mot ; mais quel est l’équivalent d’une partie ? Les systèmes actuels traduisent chaque phrase indépendamment des autres phrases d’un texte : la « position » qui sert de base à chaque évaluation est ainsi réduite à un petit nombre de mots : de phrase en phrase des motifs se répètent, permettant au système de faire des généralisations utiles. Cette approche reste toutefois aveugle aux dépendances entre phrases et s’avère incapable par nature de garantir la cohérence des documents ainsi produits, que cette cohérence soit stylistique, discursive, sémantique ou référentielle.
Ce qui nous amène à la seconde observation : apprendre demandant des exemples, en traduction, il faudra donc disposer d’un vaste corpus de traductions, réalisées si possible par des traducteurs qualifiés. La difficulté est que l’activité de traduction humaine porte sur des textes très particuliers : si l’on trouve facilement des traductions de romans, de textes juridiques, de documentations techniques, de sites Web ou autres supports de communication, les traductions de tweets ou de discussions sur des forums sont beaucoup plus rares, sans parler des traductions de conversations spontanées. Notons que, même les genres textuels les mieux représentés n’existent pas dans les mêmes quantités pour tous les couples de langues : des océans de données pour le couple anglais-français, quelques gouttes pour le couple malgache-inuktitut.
L’approche consistant à engendrer des données artificielles, par exemple en traduisant via une langue tierce dite pivot (le plus souvent l’anglais), est ici peu opérante, faute de pouvoir garantir la fiabilité de ces pseudo-traductions. Contrairement au Go, dont les règles, une fois programmées, permettent de produire à volonté des coups licites et des parties formellement correcte, la langue se laisse moins facilement modéliser. La génération de textes artificiels syntaxiquement corrects est une entreprise hasardeuse, et encore plus leur traduction automatique.
Dernier problème, sans doute le plus ardu : la traduction n’est pas une activité naturelle. Elle demande des professionnels rompus à l’exercice et bien formés, ayant accumulé des connaissances variées, à la fois sur les langues source et cible, mais également sur les cultures et sociétés entre lesquelles les écrits circulent. Ces connaissances doivent être simultanément mobilisées, par exemple pour retranscrire les marqueurs linguistiques de politesse, dont l’emploi correct requiert une analyse fine du statut et des relations entre les différents acteurs d’une scène. Ces connaissances restent souvent implicites dans les textes ou dans les exemples de traduction, et l’approche statistique ne pourra jamais les apprendre que par approximation, s’exposant à des erreurs parfois catastrophiques.
La traduction automatique progresse année après année, et va continuer de s’améliorer grâce au développement de nouveaux algorithmes capables d’intégrer plus efficacement les données, ressources linguistiques et connaissances disponibles. Elle produit déjà des résultats utilisables pour de nombreuses applications, atteignant même des niveaux de qualité remarquables pour les documents les plus stéréotypés, par exemple les notices techniques. L’activité de correction humaine des traductions automatiques s’industrialise et permet, dans certains contextes, de produire à faible coût des traductions acceptables et vérifiées, facilitant le commerce et les échanges internationaux.
La TA connaît également un fort succès auprès du grand public, qui l’utilise pour assimiler des textes écrits dans une langue inconnue, mais également, de manière détournée, pour rédiger en langue étrangère, parfois également dans des contextes d’apprentissage. Mais il est peu probable que, dans cet exercice, la machine surpasse un jour l’humain, sinon pour des tâches de traduction triviales.
(D'après le journal du CNRS)
Les récents progrès réalisés dans le domaine de l’intelligence artificielle impressionnent, comme l’a montré la victoire du logiciel AlphaGo sur le champion du monde de Go. Il y a pourtant des domaines qui résistent encore et toujours à la mise en algorithme, notamment la traduction. François Yvon, spécialiste du sujet, nous explique pourquoi.
La récente victoire du logiciel AlphaGo surclassant le champion du monde de Go a relancé les spéculations sur l’intelligence des machines, ainsi que sur les limites et les dangers de leur développement. De nombreuses compétences humaines semblent pourtant résister à la mise en algorithme. Parmi celles-ci, la traduction, dont les efforts d’automatisation, entamés dès les années 1950, continuent de se heurter à des difficultés apparemment insurmontables. La méthode d’AlphaGo ouvre-t-elle de nouvelles perspectives pour résoudre cette tâche, souvent présentée comme une des plus difficiles pour une intelligence artificielle ?
La recette du succès d’AlphaGo est bien connue et prolonge une tradition de recherche déjà ancienne sur la modélisation des jeux. Le programme aborde une partie comme une succession de décisions locales et doit donc, pour bien jouer, développer deux compétences :
- sélectionner le meilleur coup dans l’ensemble des coups autorisés, étant donné l’état courant du jeu, sur la base d’une évaluation de son bénéfice à long terme. Cela implique de prendre en compte toutes les réponses possibles de l’adversaire, puis les réponses à ces réponses, etc. Explorer exhaustivement cet arbre de possibilités est infaisable et demande de mettre en œuvre des stratégies heuristiques, qui font l’objet d’un apprentissage par AlphaGo ;
- évaluer une position comme étant plutôt gagnante ou perdante, cette fonction d’évaluation étant également l’objet d’un apprentissage.
AlphaGo réalise ces deux apprentissages avec des réseaux de neurones artificiels dits profonds, en analysant à la fois des parties réelles (jouées par des joueurs experts), mais également à partir d’un très grand nombre de parties artificielles, produites en faisant s’affronter deux versions du logiciel.
Qu’en est-il de la traduction automatique (TA) ? Comme pour le Go, les approches les plus efficaces à ce jour reposent essentiellement sur un apprentissage automatique. La traduction est ainsi modélisée comme une succession d’actions élémentaires, consistant à ajouter un mot à la traduction à chaque itération du système. Un bon système de TA doit donc savoir quel prochain mot produire parmi tous les mots de son dictionnaire, en tenant compte des mots produits antérieurement, ainsi, naturellement, que de la phrase à traduire. L’utilisation de méthodes statistiques similaires à celles déployées pour AlphaGo pour apprendre à faire ces choix a permis des améliorations considérables de la TA. Quelles en sont les limites ?
Une première observation est que le calcul du meilleur coup à jouer demande que l’on puisse évaluer automatiquement le bénéfice escompté de chaque action : au Go, cette évaluation est simple et se déduit du résultat (gain ou perte) de la partie conduite à son terme. Il en va autrement en traduction : l’évaluation automatique de la qualité du résultat d’une traduction reste un défi extrêmement difficile à relever.
Notons ensuite que, dans cette analogie, jouer un coup équivaut à produire un mot ; mais quel est l’équivalent d’une partie ? Les systèmes actuels traduisent chaque phrase indépendamment des autres phrases d’un texte : la « position » qui sert de base à chaque évaluation est ainsi réduite à un petit nombre de mots : de phrase en phrase des motifs se répètent, permettant au système de faire des généralisations utiles. Cette approche reste toutefois aveugle aux dépendances entre phrases et s’avère incapable par nature de garantir la cohérence des documents ainsi produits, que cette cohérence soit stylistique, discursive, sémantique ou référentielle.
Ce qui nous amène à la seconde observation : apprendre demandant des exemples, en traduction, il faudra donc disposer d’un vaste corpus de traductions, réalisées si possible par des traducteurs qualifiés. La difficulté est que l’activité de traduction humaine porte sur des textes très particuliers : si l’on trouve facilement des traductions de romans, de textes juridiques, de documentations techniques, de sites Web ou autres supports de communication, les traductions de tweets ou de discussions sur des forums sont beaucoup plus rares, sans parler des traductions de conversations spontanées. Notons que, même les genres textuels les mieux représentés n’existent pas dans les mêmes quantités pour tous les couples de langues : des océans de données pour le couple anglais-français, quelques gouttes pour le couple malgache-inuktitut.
L’approche consistant à engendrer des données artificielles, par exemple en traduisant via une langue tierce dite pivot (le plus souvent l’anglais), est ici peu opérante, faute de pouvoir garantir la fiabilité de ces pseudo-traductions. Contrairement au Go, dont les règles, une fois programmées, permettent de produire à volonté des coups licites et des parties formellement correcte, la langue se laisse moins facilement modéliser. La génération de textes artificiels syntaxiquement corrects est une entreprise hasardeuse, et encore plus leur traduction automatique.
Dernier problème, sans doute le plus ardu : la traduction n’est pas une activité naturelle. Elle demande des professionnels rompus à l’exercice et bien formés, ayant accumulé des connaissances variées, à la fois sur les langues source et cible, mais également sur les cultures et sociétés entre lesquelles les écrits circulent. Ces connaissances doivent être simultanément mobilisées, par exemple pour retranscrire les marqueurs linguistiques de politesse, dont l’emploi correct requiert une analyse fine du statut et des relations entre les différents acteurs d’une scène. Ces connaissances restent souvent implicites dans les textes ou dans les exemples de traduction, et l’approche statistique ne pourra jamais les apprendre que par approximation, s’exposant à des erreurs parfois catastrophiques.
La traduction automatique progresse année après année, et va continuer de s’améliorer grâce au développement de nouveaux algorithmes capables d’intégrer plus efficacement les données, ressources linguistiques et connaissances disponibles. Elle produit déjà des résultats utilisables pour de nombreuses applications, atteignant même des niveaux de qualité remarquables pour les documents les plus stéréotypés, par exemple les notices techniques. L’activité de correction humaine des traductions automatiques s’industrialise et permet, dans certains contextes, de produire à faible coût des traductions acceptables et vérifiées, facilitant le commerce et les échanges internationaux.
La TA connaît également un fort succès auprès du grand public, qui l’utilise pour assimiler des textes écrits dans une langue inconnue, mais également, de manière détournée, pour rédiger en langue étrangère, parfois également dans des contextes d’apprentissage. Mais il est peu probable que, dans cet exercice, la machine surpasse un jour l’humain, sinon pour des tâches de traduction triviales.
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
Pourquoi exclure de facto Astro de cette discussion
A+
Velvet, reviens Christian
A+
Velvet, reviens Christian
- Velvet
- Messages: 1433
- Inscription Forum: 19 Fév 2003 1:14
- Localisation: Centre du monde ....
Velvet a écrit:Pourquoi exclure de facto Astro de cette discussion
A+
Velvet, reviens Christian
- alain_38
- Messages: 327
- Inscription Forum: 06 Avr 2011 16:55
- Localisation: Rhône-Alpes
Enfin un sujet pour les gens culturés.
- Ultranova
- Messages: 244
- Inscription Forum: 06 Mar 2004 21:57
- Localisation: Belgique fédérale francophone
Velvet a écrit:Pourquoi exclure de facto Astro de cette discussion
A+
Velvet, reviens Christian
Il boude le père astro...ou alors il est trop occupé avec ses ailerons
- Kolian
- Messages: 8680
- Inscription Forum: 14 Nov 2005 12:57
Les calculateurs quantiques
Beaucoup de bruit et d'annonces autour de ce thème. Mais pas grand' chose ne semble sortir.
Où en est-on réellement?
Confusions concernant le calcul quantique
par Jean-Paul Delahaye - SPS n°317, juillet 2016
(Jean-Paul Delahaye est professeur émérite d’Informatique et chercheur au CNRS.)
Souvent on évoque les ordinateurs quantiques comme sur le point d’exister et de tout changer, ou même existant déjà et réalisant de formidables exploits qui mettent en danger la cryptographie mathématique moderne et donc nos cartes bancaires et le fonctionnement de l’Internet commercial. Des annonces tonitruantes sont faites assez régulièrement (par exemple par Google et D-wave en décembre 2015), qui créent une grande confusion.
Où en est-on réellement ? Et quels changements peuvent résulter des avancées de l’informatique quantique ?
A) Il existe une cryptographie quantique. Elle n’est presque pas utilisée car plus délicate à mettre en œuvre que la cryptographie mathématique qui, pour l’instant, n’est pas vraiment menacée par les ordinateurs quantiques réels (voir plus bas). Cette cryptographie quantique opérationnelle aujourd’hui – des entreprises vendent des dispositifs qui la mettent en œuvre1 – ne doit pas être confondue avec le calcul quantique qui consiste, non pas à mettre au point des systèmes quantiques spécialisés de cryptographie, mais à mettre au point des ordinateurs les plus généraux possible fondés sur les principes de la mécanique quantique.
B) Il existe un modèle mathématique d’ordinateur quantique et on a démontré dès 1995 qu’il avait un pouvoir théorique de calcul supérieur à celui des ordinateurs classiques (tous les ordinateurs aujourd’hui). Un ordinateur quantique général pourrait par exemple factoriser rapidement (on dit en temps polynomial) des nombres entiers, alors qu’un ordinateur classique ne le peut très probablement pas. Cependant, même sur le plan théorique tout n’est pas faisable rapidement avec un ordinateur quantique général. Ils ont aussi des limites.
C) La cryptographie étudie et conçoit des méthodes mathématiques de cryptographie dites post-quantiques qui exploitent les faiblesses et limites des ordinateurs quantiques généraux. Ces méthodes de cryptographie mathématique post-quantiques, contrairement à la majorité de celles utilisées aujourd’hui en cryptographie, ne seraient pas mises en danger par l’existence d’ordinateurs quantiques généraux. Des solutions existent donc pour « sauver » la cryptographie mathématique lorsqu’on saura réaliser des ordinateurs quantiques généraux qui ne soient pas que des jouets. Ces solutions permettraient de ne pas avoir à s’appuyer sur la cryptographie quantique évoquée dans le paragraphe A.
D) Les recherches pratiques sur la réalisation d’ordinateurs quantiques progressent. Cependant, ce qu’on réussit à faire aujourd’hui avec des calculateurs quantiques ne permet de résoudre aucun problème plus rapidement qu’on ne le résout avec un ordinateur classique. Aucun danger immédiat pour la cryptographie mathématique usuelle ne semble donc résulter des dispositifs de calculs quantiques qu’on sait vraiment fabriquer aujourd’hui. La cryptographie n’a en conséquence pas besoin pour l’instant de mettre en œuvre les dispositifs quantiques de cryptographie qui existent (point A) ou les méthodes de cryptographie mathématiques post-quantiques (point C). Les progrès dans la mise au point des ordinateurs quantiques ont conduit aujourd’hui à des machines capables de factoriser le nombre 143 (143 = 11×13) en 2012, et les nombres de 6 chiffres décimaux inférieurs à 200 000 (avril 2016, record en attente de validation). C’est très bien, mais ridicule en regard de ce qu’on sait faire avec des algorithmes classiques sur des ordinateurs classiques. En effet, aujourd’hui, sur ces machines classiques, on factorise assez facilement des nombres de 100 chiffres décimaux ; le record est de 232 chiffres pour un nombre entier difficile (car produit de 2 nombres premiers). On peut penser que de nombreuses années seront nécessaires pour passer de la factorisation par des machines quantiques des nombres de 6 chiffres à ceux de 100 chiffres.
L’annonce2, parfois présentée comme un triomphe des ordinateurs quantiques en décembre 2015, concernait un type de machines quantiques spécialisées (et non pas un ordinateur quantique général) et ne consistait qu’en la résolution d’un problème qu’on sait résoudre par les méthodes classiques beaucoup plus rapidement. L’astuce qui a trompé quelques journalistes était que la méthode « programmée » dans la machine quantique permet de calculer beaucoup plus rapidement la solution que la même méthode programmée dans un ordinateur classique. Ce qui rend l’exploit beaucoup moins spectaculaire qu’il n’y paraît est que la méthode utilisée n’est pas la meilleure possible et que lorsqu’on utilise la meilleure méthode connue, alors les ordinateurs classiques sont beaucoup plus rapides. En clair, c’est comme si l’ordinateur quantique était champion d’un calcul de multiplication à la condition d’utiliser la méthode suivante, la seule qu’il peut appliquer : « pour connaître A×B additionner A + A + A + … + A en écrivant B fois le A. » alors que cette méthode est mauvaise et que l’ordinateur classique en utilisant un meilleur algorithme de multiplication (par exemple celui qu’on a appris à l’école) était plus rapide.
Le calcul quantique avance, mais pas aussi vite que certains voudraient nous le faire croire, et aujourd’hui, il n’a pas résolu un seul problème réel de calcul mieux que l’ordinateur classique. Ne vendons pas la peau de l’ours avant de l’avoir numérisé !
Bibliographie
MIT NEWS : Scott Aaronson, Google Quantum-Computing Paper-1211, 2015.
Scott Aaronson, "Google, D-Wave, and the case of the factor-10^8 speedup for WHAT ?”
Raouf Dridi, Hedayat Alghassi, "Prime factorization using quantum annealing and computational algebraic geometry", 2016.
Wikipedia Quantum Computing
Wikipedia Post quantum cryptography
Wikipedia Shor’s Algorithm
A+
Où en est-on réellement?
Confusions concernant le calcul quantique
par Jean-Paul Delahaye - SPS n°317, juillet 2016
(Jean-Paul Delahaye est professeur émérite d’Informatique et chercheur au CNRS.)
Souvent on évoque les ordinateurs quantiques comme sur le point d’exister et de tout changer, ou même existant déjà et réalisant de formidables exploits qui mettent en danger la cryptographie mathématique moderne et donc nos cartes bancaires et le fonctionnement de l’Internet commercial. Des annonces tonitruantes sont faites assez régulièrement (par exemple par Google et D-wave en décembre 2015), qui créent une grande confusion.
Où en est-on réellement ? Et quels changements peuvent résulter des avancées de l’informatique quantique ?
A) Il existe une cryptographie quantique. Elle n’est presque pas utilisée car plus délicate à mettre en œuvre que la cryptographie mathématique qui, pour l’instant, n’est pas vraiment menacée par les ordinateurs quantiques réels (voir plus bas). Cette cryptographie quantique opérationnelle aujourd’hui – des entreprises vendent des dispositifs qui la mettent en œuvre1 – ne doit pas être confondue avec le calcul quantique qui consiste, non pas à mettre au point des systèmes quantiques spécialisés de cryptographie, mais à mettre au point des ordinateurs les plus généraux possible fondés sur les principes de la mécanique quantique.
B) Il existe un modèle mathématique d’ordinateur quantique et on a démontré dès 1995 qu’il avait un pouvoir théorique de calcul supérieur à celui des ordinateurs classiques (tous les ordinateurs aujourd’hui). Un ordinateur quantique général pourrait par exemple factoriser rapidement (on dit en temps polynomial) des nombres entiers, alors qu’un ordinateur classique ne le peut très probablement pas. Cependant, même sur le plan théorique tout n’est pas faisable rapidement avec un ordinateur quantique général. Ils ont aussi des limites.
C) La cryptographie étudie et conçoit des méthodes mathématiques de cryptographie dites post-quantiques qui exploitent les faiblesses et limites des ordinateurs quantiques généraux. Ces méthodes de cryptographie mathématique post-quantiques, contrairement à la majorité de celles utilisées aujourd’hui en cryptographie, ne seraient pas mises en danger par l’existence d’ordinateurs quantiques généraux. Des solutions existent donc pour « sauver » la cryptographie mathématique lorsqu’on saura réaliser des ordinateurs quantiques généraux qui ne soient pas que des jouets. Ces solutions permettraient de ne pas avoir à s’appuyer sur la cryptographie quantique évoquée dans le paragraphe A.
D) Les recherches pratiques sur la réalisation d’ordinateurs quantiques progressent. Cependant, ce qu’on réussit à faire aujourd’hui avec des calculateurs quantiques ne permet de résoudre aucun problème plus rapidement qu’on ne le résout avec un ordinateur classique. Aucun danger immédiat pour la cryptographie mathématique usuelle ne semble donc résulter des dispositifs de calculs quantiques qu’on sait vraiment fabriquer aujourd’hui. La cryptographie n’a en conséquence pas besoin pour l’instant de mettre en œuvre les dispositifs quantiques de cryptographie qui existent (point A) ou les méthodes de cryptographie mathématiques post-quantiques (point C). Les progrès dans la mise au point des ordinateurs quantiques ont conduit aujourd’hui à des machines capables de factoriser le nombre 143 (143 = 11×13) en 2012, et les nombres de 6 chiffres décimaux inférieurs à 200 000 (avril 2016, record en attente de validation). C’est très bien, mais ridicule en regard de ce qu’on sait faire avec des algorithmes classiques sur des ordinateurs classiques. En effet, aujourd’hui, sur ces machines classiques, on factorise assez facilement des nombres de 100 chiffres décimaux ; le record est de 232 chiffres pour un nombre entier difficile (car produit de 2 nombres premiers). On peut penser que de nombreuses années seront nécessaires pour passer de la factorisation par des machines quantiques des nombres de 6 chiffres à ceux de 100 chiffres.
L’annonce2, parfois présentée comme un triomphe des ordinateurs quantiques en décembre 2015, concernait un type de machines quantiques spécialisées (et non pas un ordinateur quantique général) et ne consistait qu’en la résolution d’un problème qu’on sait résoudre par les méthodes classiques beaucoup plus rapidement. L’astuce qui a trompé quelques journalistes était que la méthode « programmée » dans la machine quantique permet de calculer beaucoup plus rapidement la solution que la même méthode programmée dans un ordinateur classique. Ce qui rend l’exploit beaucoup moins spectaculaire qu’il n’y paraît est que la méthode utilisée n’est pas la meilleure possible et que lorsqu’on utilise la meilleure méthode connue, alors les ordinateurs classiques sont beaucoup plus rapides. En clair, c’est comme si l’ordinateur quantique était champion d’un calcul de multiplication à la condition d’utiliser la méthode suivante, la seule qu’il peut appliquer : « pour connaître A×B additionner A + A + A + … + A en écrivant B fois le A. » alors que cette méthode est mauvaise et que l’ordinateur classique en utilisant un meilleur algorithme de multiplication (par exemple celui qu’on a appris à l’école) était plus rapide.
Le calcul quantique avance, mais pas aussi vite que certains voudraient nous le faire croire, et aujourd’hui, il n’a pas résolu un seul problème réel de calcul mieux que l’ordinateur classique. Ne vendons pas la peau de l’ours avant de l’avoir numérisé !
Bibliographie
MIT NEWS : Scott Aaronson, Google Quantum-Computing Paper-1211, 2015.
Scott Aaronson, "Google, D-Wave, and the case of the factor-10^8 speedup for WHAT ?”
Raouf Dridi, Hedayat Alghassi, "Prime factorization using quantum annealing and computational algebraic geometry", 2016.
Wikipedia Quantum Computing
Wikipedia Post quantum cryptography
Wikipedia Shor’s Algorithm
A+
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
A propos de Linky
Un petit texte sur ce sujet chaud
POURQUOI LINKY EST DEVENU LA BÊTE NOIRE DES MÉDIAS
Attention ils arrivent : d’ici cinq ans, 35 millions de compteurs d’électricité intelligents – de son petit nom Linky – vont remplacer nos vieux compteurs bêtes et gris. Mais c’est peu dire que l’accueil est glacial. Ce nouveau compteur serait mauvais pour la santé, pas intéressant économiquement et surtout mouchard en puissance, selon ses nombreux détracteurs dont les messages alarmants sont largement relayés par les médias. Entre thèses carrément fumeuses et vrais arguments, @si tente le tri.
Gros coup de gueule, le 21 avril, de Dominique Seux. Dans sa chronique éco de France Inter, le journaliste, par ailleurs directeur délégué de la rédaction des Echos fustige le combat des anti-Linky, qu’il qualifie d’"obscurantisme". Un mot également utilisé le même jour par le PDG du fournisseur d’électricité Direct Energie – concurrent d’EDF – invité… dans la matinale des Echos. Linky ? C’est ce compteur électrique intelligent vert, qui va remplacer notre vieux compteur bête et gris. Le projet ne date pas d’hier – il est annoncé depuis 2007 – mais il a fallu attendre le vote de la loi sur la transition énergétique cet été pour consacrer sa généralisation. L’an dernier, 600 000 nouveaux compteurs ont été installés. Dans cinq ans, 35 millions de foyers en bénéficieront.
En quoi ce compteur est "intelligent" ? Il permet de mesurer en temps réel la consommation d'électricité, de gérer à distance le réseau et d’accompagner la transition qui prévoit 40% d'électricité renouvelable d'ici le milieu du siècle. Ce compteur est le bébé d’ERDF, gestionnaire du réseau électrique en France – à ne pas confondre avec EDF, producteur et fournisseur d’électricité.
C’est peu dire que Linky est fraîchement accueilli par de nombreux détracteurs aux reproches multiformes. Quasiment tout y passe : le compteur serait néfaste pour la santé, collecteur de données donc Big brother en puissance, aberrant économiquement – le projet coûte 5,5 milliards d’euros – et nullement efficace en économie d’énergie. Les attaques fusent : des militants anti-ondes comme les Robins des toits, la Ligue des droits de l’homme qui a appelé la semaine dernière à un moratoire, l’association de défense des consommateurs UFC-Que choisir qui dénonce une arnaque, des communes qui refusent l’installation des compteurs et même des youtubeurs dont cette jeune femme, par ailleurs auteure de tutos sur le maquillage qui – sans rire mais en larmes – poste une vidéo d’une demi-heure pour dénoncer (accrochez-vous) un "génocide", un "scandale sanitaire" et un "crime contre l’humanité".
En somme, "un marketing de la peur" pour reprendre le terme d’Anne Brunel dans sa chronique Les légendes du Web diffusée sur France Inter le 25 mars dernier. La journaliste a compté plus de 100 000 vidéos liées au terme Linky et "si toutes ne concernent certes pas le fameux compteur, quand c’est le cas, la majorité d’entre elles sont à caractère fortement anxiogène". Effet immédiat : cette angoisse a déteint sur une majorité des articles consacrés à Linky et bien sûr sur les JT – et notamment ceux de la mi-journée. Ainsi, à quelques semaines d’intervalles, les 13 Heures de TF1, de France 2 ou de M6 ont donné la parole à ces Français qui refusent de voir entrer le diable dans leur maison.
Si, avant le début de l'année, les sujets consacrés à Linky étaient mi-figue mi-raisin, depuis quelques semaines les médias focalisent sur les "controverses" ou les "polémiques" autour du compteur mal-aimé. Quand ce n'est tout simplement pas "la guerre déclarée" selon le site d’Europe 1. Certains comme Sud-Ouest relaient les dangers pour la santé, d’autres comme Bastamag ou Reporterre signalent les communes qui refusent la mise en place des compteurs, Jean-Jacques Bourdin sur RMC donne la parole au conseiller municipal écolo anti-nucléaire et anti-Linky Stéphane Lhomme – coqueluche des médias si on en croit son site – qui s’inquiète de la récolte de données, forcément liberticide, sans parler du thème "démêlons le faux du vrai" exploité notamment dans l’émission On n’est plus des pigeons diffusé sur France 4 fin février.
Bref : difficile d’échapper à la "controverse". Qui plus est, les médias n’aident pas à séparer le bon grain de l’ivraie, à savoir les arguments fumeux des plus pertinents. Tous les médias ? Non. Par chance, le numéro d’avril et mai de Canard PC Hardware consacre un dossier très complet au compteur si décrié. Vous le trouverez en kiosque exclusivement et il vaut largement les 5,90 euros qu'il coûte. L’occasion pour nous de résumer l’essentiel des reproches passés au crible par nos confrères – par ailleurs partenaires de l’émission d’@si C’est p@s qu’un jeu. Et, pour vous éviter l'indigestion, nous nous en tiendrons uniquement aux reproches formulés ces derniers mois.
Linky, la peste et le choléra réunis
Passons rapidement sur la question du danger pour la santé dénoncé par les anti-ondes, et repris par les municipalités qui refusent la pose des compteurs intelligents - un refus de toute façon impossible comme l'explique le site d'Europe 1. En gros, les anti-ondes considèrent que la technologie utilisée par le compteur serait à l’origine d'un risque sanitaire. Dans leur ligne de mire, expliquait en janvier France Info, "le rayonnement électromagnétique produit par le compteur Linky et sa technologie CPL pour Courant Porteur en Ligne, un système qui permet de transmettre les données vers des installations appelées Concentrateurs et qui se trouvent cette fois dans la rue". Pour les anti-Linky, ce nouveau compteur est un "tueur silencieux". Ridicule selon Canard PC Hardware qui fustige "un lobbyisme agressif basé sur un gloubi-boulga pseudo-scientifique mâtiné d’un soupçon de menaces juridiques sans fondement et d’affirmations péremptoires" afin de convaincre des méfaits sanitaires de Linky qui serait responsables, entre autre, d’acouphènes, de la maladie de Parkinson ou encore de cancers.
Or, comme le précise un responsable d’ERDF cité par Sud-Ouest, "Linky fonctionne exactement comme les compteurs déjà en place dans les foyers depuis des dizaines d'années. C'est l'un des appareils électriques qui émettent le moins de champ électromagnétique dans la maison par rapport aux autres". A titre de comparaison, poursuit-il, Linky "émet 150 fois moins de champ électromagnétique qu'une lampe basse consommation, et 800 fois moins qu'un sèche-cheveux !" Un constat établi également par Canard PC Hardware qui étrille le soi-disant rayonnement toxique pourfendu par les anti-ondes. En effet, l’argumentaire pourrait s’appliquer en tout point à l’ADSL qui émet un signal aux caractéristiques similaires. Or cette technique de communication n’a jamais fait l’objet d’une telle cabale. Mieux : même les Robins des toits considèrent que l’ADSL ne présente "aucun risque sanitaire".
Un relevé en temps réel ? Pas tout à fait
Autre sujet de discorde : l’utilité de ce nouveau compteur, à commencer par l’économie d’énergie pour le consommateur. Un thème cher à UFC-Que Choisir qui regrettait, en décembre dernier, que "Linky n’apporte rien, strictement rien aux usagers". L’association de défense des consommateurs rappelle qu’au départ, le nouveau compteur "devait permettre un affichage des consommations en temps réel dans un endroit bien visible du logement, seul moyen pour que chacun prenne conscience de ses dépenses d’électricité et réduise sa facture". L’idée était de pouvoir repérer instantanément les pics de consommation et demander au petit dernier d’éteindre sa console de jeu et sa guitare électrique allumées en même temps.
Patatras : ce projet d’affichage en temps réel a été abandonné – hormis pour les bénéficiaires des tarifs sociaux qui seront, eux, équipés. Les autres pourront uniquement consulter sur Internet leur consommation, mais pas en temps réel. Dès lors, est-il bien utile de savoir que la veille, votre ado a allumé ses appareils en même temps (si on excepte la joie d’avoir un prétexte supplémentaire pour l’enguirlander) ? Pour bénéficier de cette option, il faudra souscrire une offre auprès des fournisseurs d’électricité. Et donc raquer, même si on n’a encore aucune idée des tarifs des futures offres. Et quand bien même serions-nous mieux informés sur notre consommation, allons-nous pour autant faire des économies d'énergie ? Rien n'est moins sûr pour Eric Vidalenc, auteur d’un blog consacré à la transition énergétique interrogé par @si : "même très informés, on gaspille toujours autant." Et de renvoyer à l'étude réalisée sur les compteurs intelligents Gazpar– l'équivalent de Linky mais pour le gaz – qui prévoit une économie d'énergie... de 1,5%. Pas de quoi crier youpi.
Pour Canard PC Hardware, cette déception est en partie imputable à ERDF, qui a promis des économies d’énergie grâce à cet outil prévu initialement : "les communicants n’ont pas pu s’empêcher d’en faire trop" et "se sont tirés une balle dans le pied" écrit le magazine. D’ailleurs, nos confrères n’hésitent pas à souligner les erreurs de communication d’ERDF, à savoir "une certaine arrogance, surtout dans les débuts, un manque de transparence injustifié (secret industriel !), l’absence totale de soutien de la part d’EDF (à qui on croirait parler de l’antéchrist quand on aborde le cas de Linky), des déclarations à l’emporte-pièce de certains responsables locaux qui enchaînent les contre-vérités en croyant bien faire, des omissions grossières dans les plaquettes de présentation, etc."
De même, c’est le flou total sur la facture finale. En revanche, on comprend bien l’avantage pour ERDF : puisque le compteur envoie automatiquement nos informations de consommation électrique au distributeur qui pourra intervenir à distance pour couper le courant ou changer la puissance, c’est autant de techniciens en moins sur le terrain. Quant au gain de temps pour le consommateur qui n’est plus obligé d’être présent lors des relevés, comment dire… Même la femme interrogée par TF1 en décembre dernier n’y croit qu’à moitié.
L’Allemagne en marche arrière
Reste la question du compteur intelligent indispensable à la transition énergétique, qui prévoit un passage à une production d’électricité renouvelable à hauteur de 40%. Pour mémoire, le nucléaire fournit aujourd’hui 80% de notre électricité. Et avec le nucléaire, la production est en continu. On produit, on fournit. Avec l’éolienne ou le photovoltaïque, il faudra faire coïncider production fluctuante et consommation. C’est là qu’entrent en jeu nos petits machines, imposées en 2009 par l’Union européenne aux États-membres, lesquels sont tenus d’équiper au moins 80% des foyers en compteurs intelligents d’ici à 2020. La France se plie donc à la directive… quand l’Allemagne a fait machine arrière l’an dernier.
Selon Le Moniteur, "le ministère allemand de l’Économie a annoncé que les compteurs intelligents ne seraient rendus obligatoires que pour les foyers fortement consommateurs d’électricité". C’est-à-dire une minorité. Pour quelle raison ? Selon une étude d’un cabinet mandaté en 2013, "l’adoption massive de nouveaux compteurs n’est pas dans l’intérêt du consommateur allemand". Un recul évidemment repris par les anti-Linky. Concernant l'Allemagne, Vidalenc rappelle quelques chiffres : "en 2015, l’Allemagne a installé 39 GW en solaire contre 6 en France et plus de 40 GW en éolien contre 10 en France. Et ils n’ont pas attendu le compteur intelligent pour le faire". Avant d’ajouter : "ce compteur intervient en bout de chaîne. Il reste encore beaucoup à faire en termes de moyens de production pilotables à distance, et notamment sur les barrages. Quand nous serons à 80% ou 100% d’électricité renouvelable, ces compteurs seront en effet indispensables. En attendant, peut-être pouvait-on les installer progressivement en commençant, comme en Allemagne, par les gros consommateurs. Là, on les change chez tout le monde de manière très rapide".
Mouchard en puissance
Finissons en beauté par la question des données. A en croire les anti-Linky, et notamment Lhomme qui le répète à l’envi, "les compteurs communicants vont capter sur nos vies d'innombrables informations utilisables à des fins commerciales ou policières. Les autorités promettent que ces données ne seront pas utilisées sans notre aval, mais que vaudront ces belles paroles à l'avenir ? Il suffira à un gouvernement quelconque d'arguer de la situation économique ou sécuritaire pour décréter que les informations collectées par les compteurs seront utilisables par les entreprises ou la police, par exemple sous les prétextes respectifs de « relancer la croissance » ou de « lutter contre le terrorisme ». On veut installer dans nos logements de véritables "Big brother" en nous jurant qu'ils ne serviront pas à nous surveiller… et nous devrions y croire ?"
Là encore, ERDF n’est pas étranger à cette psychose : selon Canard PC Hardware, des responsables du distributeur d'électricité n'ont pas hésité à s'enthousiasmer autour de ces données qui pourront "servir de levier d’innovation pour les start-ups" ou, pourquoi pas, permettre "la modulation des primes d’assurance en fonction des équipements". En somme : nos données pourront profiter à d'autres et pas exclusivement à l'utilisateur. C'est ce point qui fâche justement la très sérieuse Ligue des droits de l’homme. Mardi dernier, l'association a exigé un moratoire sur les nouveaux compteurs considérés comme très bavards.
Pourtant, comme le souligne Canard PC Hardware, l’ADEME (Agence de l'environnement et de la maîtrise de l'énergie) et la CNIL (Commission nationale de l'informatique et des libertés) ont fixé une règle : les données collectées à partir de Linky sont considérées "comme privées et appartiennent aux clients. Pour les transmettre à quiconque, ERDF devra obligatoirement recueillir son consentement." Mais le diable se cache dans les détails, poursuit le magazine : "nul doute que le fameux consentement sera intégré dans le fin fond des petites lignes des contrats". D’ailleurs, selon la Ligue, ce consentement n’est pas indiqué dans "les courriers envoyés par ERDF annonçant le remplacement des compteurs". Arguons cependant qu’un courrier qui annonce la pose du compteur n’est pas encore un contrat.
Autre réserve de nos confrères : rien ne dit que les fournisseurs d’électricité ne vont pas nous proposer de nouvelles offres appétissantes en échange de nos données. Et si vous refusez, vous risquez de payer plus cher. Mais là où Canard PC Hardware tire la sonnette d’alarme – et rejoint la position de Lhomme – c’est sur ces données qui peuvent potentiellement intéresser les services de police et de gendarmerie : "non seulement ERDF peut savoir exactement quand vous étiez chez vous et quand vous n’y étiez pas, mais il peut également renseigner les forces de l’ordre (à dix minutes près) dès que vous regagnez votre domicile. Ce genre de réquisition exige normalement l’accord d’un juge, mais voilà : depuis l’élargissement très conséquent des pouvoirs de police consécutif à l’état d’urgence, on peut craindre que cette alléchante possibilité ne soit exploitée en masse en échappant à tout contrôle. Et ni l’ADEME, ni la CNIL, ni ERDF ne pourront s’y opposer."
Par Anne-Sophie Jacques le 25/04/2016
Source : http://www.arretsurimages.net/articles/ ... ias-id8687
POURQUOI LINKY EST DEVENU LA BÊTE NOIRE DES MÉDIAS
Attention ils arrivent : d’ici cinq ans, 35 millions de compteurs d’électricité intelligents – de son petit nom Linky – vont remplacer nos vieux compteurs bêtes et gris. Mais c’est peu dire que l’accueil est glacial. Ce nouveau compteur serait mauvais pour la santé, pas intéressant économiquement et surtout mouchard en puissance, selon ses nombreux détracteurs dont les messages alarmants sont largement relayés par les médias. Entre thèses carrément fumeuses et vrais arguments, @si tente le tri.
Gros coup de gueule, le 21 avril, de Dominique Seux. Dans sa chronique éco de France Inter, le journaliste, par ailleurs directeur délégué de la rédaction des Echos fustige le combat des anti-Linky, qu’il qualifie d’"obscurantisme". Un mot également utilisé le même jour par le PDG du fournisseur d’électricité Direct Energie – concurrent d’EDF – invité… dans la matinale des Echos. Linky ? C’est ce compteur électrique intelligent vert, qui va remplacer notre vieux compteur bête et gris. Le projet ne date pas d’hier – il est annoncé depuis 2007 – mais il a fallu attendre le vote de la loi sur la transition énergétique cet été pour consacrer sa généralisation. L’an dernier, 600 000 nouveaux compteurs ont été installés. Dans cinq ans, 35 millions de foyers en bénéficieront.
En quoi ce compteur est "intelligent" ? Il permet de mesurer en temps réel la consommation d'électricité, de gérer à distance le réseau et d’accompagner la transition qui prévoit 40% d'électricité renouvelable d'ici le milieu du siècle. Ce compteur est le bébé d’ERDF, gestionnaire du réseau électrique en France – à ne pas confondre avec EDF, producteur et fournisseur d’électricité.
C’est peu dire que Linky est fraîchement accueilli par de nombreux détracteurs aux reproches multiformes. Quasiment tout y passe : le compteur serait néfaste pour la santé, collecteur de données donc Big brother en puissance, aberrant économiquement – le projet coûte 5,5 milliards d’euros – et nullement efficace en économie d’énergie. Les attaques fusent : des militants anti-ondes comme les Robins des toits, la Ligue des droits de l’homme qui a appelé la semaine dernière à un moratoire, l’association de défense des consommateurs UFC-Que choisir qui dénonce une arnaque, des communes qui refusent l’installation des compteurs et même des youtubeurs dont cette jeune femme, par ailleurs auteure de tutos sur le maquillage qui – sans rire mais en larmes – poste une vidéo d’une demi-heure pour dénoncer (accrochez-vous) un "génocide", un "scandale sanitaire" et un "crime contre l’humanité".
En somme, "un marketing de la peur" pour reprendre le terme d’Anne Brunel dans sa chronique Les légendes du Web diffusée sur France Inter le 25 mars dernier. La journaliste a compté plus de 100 000 vidéos liées au terme Linky et "si toutes ne concernent certes pas le fameux compteur, quand c’est le cas, la majorité d’entre elles sont à caractère fortement anxiogène". Effet immédiat : cette angoisse a déteint sur une majorité des articles consacrés à Linky et bien sûr sur les JT – et notamment ceux de la mi-journée. Ainsi, à quelques semaines d’intervalles, les 13 Heures de TF1, de France 2 ou de M6 ont donné la parole à ces Français qui refusent de voir entrer le diable dans leur maison.
Si, avant le début de l'année, les sujets consacrés à Linky étaient mi-figue mi-raisin, depuis quelques semaines les médias focalisent sur les "controverses" ou les "polémiques" autour du compteur mal-aimé. Quand ce n'est tout simplement pas "la guerre déclarée" selon le site d’Europe 1. Certains comme Sud-Ouest relaient les dangers pour la santé, d’autres comme Bastamag ou Reporterre signalent les communes qui refusent la mise en place des compteurs, Jean-Jacques Bourdin sur RMC donne la parole au conseiller municipal écolo anti-nucléaire et anti-Linky Stéphane Lhomme – coqueluche des médias si on en croit son site – qui s’inquiète de la récolte de données, forcément liberticide, sans parler du thème "démêlons le faux du vrai" exploité notamment dans l’émission On n’est plus des pigeons diffusé sur France 4 fin février.
Bref : difficile d’échapper à la "controverse". Qui plus est, les médias n’aident pas à séparer le bon grain de l’ivraie, à savoir les arguments fumeux des plus pertinents. Tous les médias ? Non. Par chance, le numéro d’avril et mai de Canard PC Hardware consacre un dossier très complet au compteur si décrié. Vous le trouverez en kiosque exclusivement et il vaut largement les 5,90 euros qu'il coûte. L’occasion pour nous de résumer l’essentiel des reproches passés au crible par nos confrères – par ailleurs partenaires de l’émission d’@si C’est p@s qu’un jeu. Et, pour vous éviter l'indigestion, nous nous en tiendrons uniquement aux reproches formulés ces derniers mois.
Linky, la peste et le choléra réunis
Passons rapidement sur la question du danger pour la santé dénoncé par les anti-ondes, et repris par les municipalités qui refusent la pose des compteurs intelligents - un refus de toute façon impossible comme l'explique le site d'Europe 1. En gros, les anti-ondes considèrent que la technologie utilisée par le compteur serait à l’origine d'un risque sanitaire. Dans leur ligne de mire, expliquait en janvier France Info, "le rayonnement électromagnétique produit par le compteur Linky et sa technologie CPL pour Courant Porteur en Ligne, un système qui permet de transmettre les données vers des installations appelées Concentrateurs et qui se trouvent cette fois dans la rue". Pour les anti-Linky, ce nouveau compteur est un "tueur silencieux". Ridicule selon Canard PC Hardware qui fustige "un lobbyisme agressif basé sur un gloubi-boulga pseudo-scientifique mâtiné d’un soupçon de menaces juridiques sans fondement et d’affirmations péremptoires" afin de convaincre des méfaits sanitaires de Linky qui serait responsables, entre autre, d’acouphènes, de la maladie de Parkinson ou encore de cancers.
Or, comme le précise un responsable d’ERDF cité par Sud-Ouest, "Linky fonctionne exactement comme les compteurs déjà en place dans les foyers depuis des dizaines d'années. C'est l'un des appareils électriques qui émettent le moins de champ électromagnétique dans la maison par rapport aux autres". A titre de comparaison, poursuit-il, Linky "émet 150 fois moins de champ électromagnétique qu'une lampe basse consommation, et 800 fois moins qu'un sèche-cheveux !" Un constat établi également par Canard PC Hardware qui étrille le soi-disant rayonnement toxique pourfendu par les anti-ondes. En effet, l’argumentaire pourrait s’appliquer en tout point à l’ADSL qui émet un signal aux caractéristiques similaires. Or cette technique de communication n’a jamais fait l’objet d’une telle cabale. Mieux : même les Robins des toits considèrent que l’ADSL ne présente "aucun risque sanitaire".
Un relevé en temps réel ? Pas tout à fait
Autre sujet de discorde : l’utilité de ce nouveau compteur, à commencer par l’économie d’énergie pour le consommateur. Un thème cher à UFC-Que Choisir qui regrettait, en décembre dernier, que "Linky n’apporte rien, strictement rien aux usagers". L’association de défense des consommateurs rappelle qu’au départ, le nouveau compteur "devait permettre un affichage des consommations en temps réel dans un endroit bien visible du logement, seul moyen pour que chacun prenne conscience de ses dépenses d’électricité et réduise sa facture". L’idée était de pouvoir repérer instantanément les pics de consommation et demander au petit dernier d’éteindre sa console de jeu et sa guitare électrique allumées en même temps.
Patatras : ce projet d’affichage en temps réel a été abandonné – hormis pour les bénéficiaires des tarifs sociaux qui seront, eux, équipés. Les autres pourront uniquement consulter sur Internet leur consommation, mais pas en temps réel. Dès lors, est-il bien utile de savoir que la veille, votre ado a allumé ses appareils en même temps (si on excepte la joie d’avoir un prétexte supplémentaire pour l’enguirlander) ? Pour bénéficier de cette option, il faudra souscrire une offre auprès des fournisseurs d’électricité. Et donc raquer, même si on n’a encore aucune idée des tarifs des futures offres. Et quand bien même serions-nous mieux informés sur notre consommation, allons-nous pour autant faire des économies d'énergie ? Rien n'est moins sûr pour Eric Vidalenc, auteur d’un blog consacré à la transition énergétique interrogé par @si : "même très informés, on gaspille toujours autant." Et de renvoyer à l'étude réalisée sur les compteurs intelligents Gazpar– l'équivalent de Linky mais pour le gaz – qui prévoit une économie d'énergie... de 1,5%. Pas de quoi crier youpi.
Pour Canard PC Hardware, cette déception est en partie imputable à ERDF, qui a promis des économies d’énergie grâce à cet outil prévu initialement : "les communicants n’ont pas pu s’empêcher d’en faire trop" et "se sont tirés une balle dans le pied" écrit le magazine. D’ailleurs, nos confrères n’hésitent pas à souligner les erreurs de communication d’ERDF, à savoir "une certaine arrogance, surtout dans les débuts, un manque de transparence injustifié (secret industriel !), l’absence totale de soutien de la part d’EDF (à qui on croirait parler de l’antéchrist quand on aborde le cas de Linky), des déclarations à l’emporte-pièce de certains responsables locaux qui enchaînent les contre-vérités en croyant bien faire, des omissions grossières dans les plaquettes de présentation, etc."
De même, c’est le flou total sur la facture finale. En revanche, on comprend bien l’avantage pour ERDF : puisque le compteur envoie automatiquement nos informations de consommation électrique au distributeur qui pourra intervenir à distance pour couper le courant ou changer la puissance, c’est autant de techniciens en moins sur le terrain. Quant au gain de temps pour le consommateur qui n’est plus obligé d’être présent lors des relevés, comment dire… Même la femme interrogée par TF1 en décembre dernier n’y croit qu’à moitié.
L’Allemagne en marche arrière
Reste la question du compteur intelligent indispensable à la transition énergétique, qui prévoit un passage à une production d’électricité renouvelable à hauteur de 40%. Pour mémoire, le nucléaire fournit aujourd’hui 80% de notre électricité. Et avec le nucléaire, la production est en continu. On produit, on fournit. Avec l’éolienne ou le photovoltaïque, il faudra faire coïncider production fluctuante et consommation. C’est là qu’entrent en jeu nos petits machines, imposées en 2009 par l’Union européenne aux États-membres, lesquels sont tenus d’équiper au moins 80% des foyers en compteurs intelligents d’ici à 2020. La France se plie donc à la directive… quand l’Allemagne a fait machine arrière l’an dernier.
Selon Le Moniteur, "le ministère allemand de l’Économie a annoncé que les compteurs intelligents ne seraient rendus obligatoires que pour les foyers fortement consommateurs d’électricité". C’est-à-dire une minorité. Pour quelle raison ? Selon une étude d’un cabinet mandaté en 2013, "l’adoption massive de nouveaux compteurs n’est pas dans l’intérêt du consommateur allemand". Un recul évidemment repris par les anti-Linky. Concernant l'Allemagne, Vidalenc rappelle quelques chiffres : "en 2015, l’Allemagne a installé 39 GW en solaire contre 6 en France et plus de 40 GW en éolien contre 10 en France. Et ils n’ont pas attendu le compteur intelligent pour le faire". Avant d’ajouter : "ce compteur intervient en bout de chaîne. Il reste encore beaucoup à faire en termes de moyens de production pilotables à distance, et notamment sur les barrages. Quand nous serons à 80% ou 100% d’électricité renouvelable, ces compteurs seront en effet indispensables. En attendant, peut-être pouvait-on les installer progressivement en commençant, comme en Allemagne, par les gros consommateurs. Là, on les change chez tout le monde de manière très rapide".
Mouchard en puissance
Finissons en beauté par la question des données. A en croire les anti-Linky, et notamment Lhomme qui le répète à l’envi, "les compteurs communicants vont capter sur nos vies d'innombrables informations utilisables à des fins commerciales ou policières. Les autorités promettent que ces données ne seront pas utilisées sans notre aval, mais que vaudront ces belles paroles à l'avenir ? Il suffira à un gouvernement quelconque d'arguer de la situation économique ou sécuritaire pour décréter que les informations collectées par les compteurs seront utilisables par les entreprises ou la police, par exemple sous les prétextes respectifs de « relancer la croissance » ou de « lutter contre le terrorisme ». On veut installer dans nos logements de véritables "Big brother" en nous jurant qu'ils ne serviront pas à nous surveiller… et nous devrions y croire ?"
Là encore, ERDF n’est pas étranger à cette psychose : selon Canard PC Hardware, des responsables du distributeur d'électricité n'ont pas hésité à s'enthousiasmer autour de ces données qui pourront "servir de levier d’innovation pour les start-ups" ou, pourquoi pas, permettre "la modulation des primes d’assurance en fonction des équipements". En somme : nos données pourront profiter à d'autres et pas exclusivement à l'utilisateur. C'est ce point qui fâche justement la très sérieuse Ligue des droits de l’homme. Mardi dernier, l'association a exigé un moratoire sur les nouveaux compteurs considérés comme très bavards.
Pourtant, comme le souligne Canard PC Hardware, l’ADEME (Agence de l'environnement et de la maîtrise de l'énergie) et la CNIL (Commission nationale de l'informatique et des libertés) ont fixé une règle : les données collectées à partir de Linky sont considérées "comme privées et appartiennent aux clients. Pour les transmettre à quiconque, ERDF devra obligatoirement recueillir son consentement." Mais le diable se cache dans les détails, poursuit le magazine : "nul doute que le fameux consentement sera intégré dans le fin fond des petites lignes des contrats". D’ailleurs, selon la Ligue, ce consentement n’est pas indiqué dans "les courriers envoyés par ERDF annonçant le remplacement des compteurs". Arguons cependant qu’un courrier qui annonce la pose du compteur n’est pas encore un contrat.
Autre réserve de nos confrères : rien ne dit que les fournisseurs d’électricité ne vont pas nous proposer de nouvelles offres appétissantes en échange de nos données. Et si vous refusez, vous risquez de payer plus cher. Mais là où Canard PC Hardware tire la sonnette d’alarme – et rejoint la position de Lhomme – c’est sur ces données qui peuvent potentiellement intéresser les services de police et de gendarmerie : "non seulement ERDF peut savoir exactement quand vous étiez chez vous et quand vous n’y étiez pas, mais il peut également renseigner les forces de l’ordre (à dix minutes près) dès que vous regagnez votre domicile. Ce genre de réquisition exige normalement l’accord d’un juge, mais voilà : depuis l’élargissement très conséquent des pouvoirs de police consécutif à l’état d’urgence, on peut craindre que cette alléchante possibilité ne soit exploitée en masse en échappant à tout contrôle. Et ni l’ADEME, ni la CNIL, ni ERDF ne pourront s’y opposer."
Par Anne-Sophie Jacques le 25/04/2016
Source : http://www.arretsurimages.net/articles/ ... ias-id8687
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
Ah linky...
J'aime beaucoup les gens qui s'inquietent de l'utilisation des données mais qui dans le même temps ont :
- un smartphone
- un compte facebook
- une carte bancaire
J'aime beaucoup les gens qui s'inquietent de l'utilisation des données mais qui dans le même temps ont :
- un smartphone
- un compte facebook
- une carte bancaire
- Kolian
- Messages: 8680
- Inscription Forum: 14 Nov 2005 12:57
Pour la veillée, au coin du feu....
Pour ceux que ça amuse, j'ai retrouvé ces vieux énoncés de la FFJM
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
Robert64 a écrit:Pour ceux que ça amuse, j'ai retrouvé ces vieux énoncés de la FFJM
Bien. http://www.ffjm.org/index.php?option=com_content&task=view&id=45&Itemid=28
- alain_38
- Messages: 327
- Inscription Forum: 06 Avr 2011 16:55
- Localisation: Rhône-Alpes
...... en échange de nos données. Et si vous refusez, vous risquez de payer plus cher. Mais là où Canard PC Hardware tire la sonnette d’alarme – et rejoint la position de Lhomme – c’est sur ces données qui peuvent potentiellement intéresser les services de police et de gendarmerie : "non seulement ERDF peut savoir exactement quand vous étiez chez vous et quand vous n’y étiez pas.
mais il peut également renseigner les forces de l’ordre (à dix minutes près) dès que vous regagnez votre domicile.
Il n'y a plus qu'à tout laisser allumé,même en absence.
Aucune différence en présence ou pas...
Cela servira d'alibi.
Transition énergétique.
- thierry38...
- Messages: 485
- Inscription Forum: 29 Déc 2015 15:26
Petite précision
La démesure de la précision
11.10.2016, par Noël Dimarcq et Isabelle Sagnes
(Journal du CNRS)
La mesure du temps atteint aujourd’hui des précisions vertigineuses, grâce notamment aux apports de l’optique et de la photonique. Or la recherche de la précision ultime est une course de longue haleine qui est loin d’être achevée.
Il n’y a pas que la science qui soit affaire de mesures et d’exactitude. Sans que l’on s’en rende compte, surfer sur Internet ou déterminer sa position grâce à un GPS sont des opérations qui demandent des mesures de temps ou de distance d’une précision très élevée… et sans cesse croissante. À tel point que c’est une véritable course qui s’est engagée dans le monde, pour aboutir à des mesures toujours plus fines. Au cœur de cette course et objet de toutes les attentions des scientifiques et des industriels : le photon, sorte de petit corpuscule de lumière.
Dans l’histoire, les mesures de précision sur des ondes lumineuses ont souvent été associées à de grandes découvertes ou à des révolutions scientifiques. À la fin du XIXe siècle, l’expérience avec l’interféromètre Michelson a été déterminante pour l’émergence de la relativité restreinte. Plus près de nous, un interféromètre d’architecture similaire mais de dimensions géantes a permis la détection des ondes gravitationnelles. Ce type d’appareils aux architectures variées permet de mesurer très précisément diverses grandeurs physiques, comme la vitesse de rotation des fusées ou des avions, les déformations et les contraintes dans de grandes structures ou encore la valeur du champ de pesanteur terrestre, avec des applications en sismologie ou pour la recherche pétrolière.
Une seconde de décalage toutes les 15 milliards d’années
De toutes les mesures, celle du temps (et plus exactement la mesure d’une durée) a toujours été la plus précise. Et ce grâce aux nombreux apports de l’optique et de la photonique. Pendant des siècles, les horloges mécaniques ont pu être recalées grâce à l’observation de la lumière émise par les astres dans le ciel, permettant la détermination de l’orientation de la Terre et donc du temps astronomique. Depuis l’invention des horloges atomiquesFermer au milieu du XXe siècle, la précision de la mesure du temps s’est améliorée d’un ordre de grandeur tous les dix ans, atteignant aujourd’hui avec les horloges optiques des niveaux de précision de 18 chiffres après la virgule. Ce qui correspondrait à une dérive de seulement une seconde sur une durée équivalente à l’âge de l’Univers ! En cette période de Nobel, notons que cette progression des horloges atomiques a été permise par des méthodes photoniques innovantes dont la plupart ont été récompensées par des prix Nobel, souvent co décernés à des scientifiques français : Alfred Kastler en 1966 pour le pompage optique, Claude Cohen Tannoudji en 1997 pour le refroidissement et le piégeage des atomes par laser, Serge Haroche en 2012 pour le développement de processus quantiques de contrôle et de mesure de l’état d’un atome.
Des besoins toujours plus grands
Nul besoin d’attendre 15 milliards d’années pour exploiter pleinement la précision de ces horloges dans des expériences scientifiques ou dans des applications à fort enjeu socio-économique. Ainsi, les besoins de synchronisation des réseaux de télécommunications deviennent chaque jour plus contraignants avec l’augmentation du débit, le nombre d’objets connectés à synchroniser (20 milliards en 2020), la précision croissante exigée pour la synchronisation des systèmes de transactions bancaires à haute fréquence, des réseaux distribués d’énergie (smart grids) ou des nouvelles usines intelligentes exploitant la révolution numérique.
Mais l’application la plus connue à ce jour reste sans aucun doute les systèmes mondiaux de positionnement par satellites1 : ici, la position de l’utilisateur est calculée par triangulation à partir des distances entre ce récepteur et les satellites de la constellation qui émettent vers le sol des signaux synchronisés sur des horloges atomiques. Connaissant la vitesse de propagation de ces signaux, égale à la vitesse de la lumière, ces distances sont déduites des mesures des durées de propagation entre les satellites et le récepteur au sol. Cette application illustre à merveille l’importance de la précision de la mesure du temps : une erreur d’un milliardième de seconde conduit à une erreur de positionnement de 30 cm.
Ceci n’est pas gênant pour connaître la position d’une automobile mais n’est plus négligeable pour l’atterrissage des avions par exemple, ou en géophysique où la précision millimétrique est requise pour l’étude des mouvements des plaques tectoniques ou l’évolution du niveau des océans. Cette façon de mesurer une distance à partir d’une durée est très utilisée, dans les travaux publics mais aussi pour déterminer précisément – au centimètre près – la distance Terre-Lune par télémétrie laser. Une autre application plus terre à terre et moins agréable pour certains est le contrôle des vitesses des véhicules à l’aide de jumelles laser.
La mesure, un juge de paix pour la science
Les systèmes mondiaux de positionnement par satellites sont aussi une belle illustration que la théorie de la relativité d’Einstein n’est pas utile qu’aux scientifiques : les effets relativistes dus au mouvement des satellites (relativité restreinte) et à la gravitation terrestre (relativité générale) induiraient au bout d’un jour un décalage du temps des horloges correspondant à des erreurs de positionnement de plus de 10 km si ces effets n’étaient pas connus et corrigés ! Mais la théorie d’Einstein est elle-même mise sur la sellette par les théories contemporaines cherchant à unifier les théories de la physique quantique et de la gravitation. Encore une fois, ce sont des mesures de précision qui seront le juge de paix en cherchant à détecter une déviation à la théorie d’Einstein, par exemple avec des comparaisons d’horloges atomiques ultra stables fonctionnant dans les laboratoires et bientôt dans l’espace, comme l’horloge Pharao à atomes refroidis par laser, qui sera installée en 2018 sur la Station spatiale internationale.
Tous ces records de précision doivent beaucoup aux composants et systèmes photoniques qui eux aussi ont vu leurs caractéristiques s’améliorer au fur et à mesure de multiples innovations technologiques. Aujourd’hui, il est possible d’intégrer dans le volume d’une boîte à chaussures toutes les fonctions optiques qui occupaient une salle entière d’expérience il y a 20 ans : sources laser, moyens de contrôle efficaces des paramètres du faisceau laser, fibres optiques, etc. Mais la recherche de la précision ultime est une course de longue haleine qui est loin d’être terminée et exige encore beaucoup d’avancées scientifiques et technologiques. Le passé l’a montré, l’avenir le confirmera : les mesures de très haute précision conduisent indéniablement à des révolutions scientifiques et à des ruptures technologiques importantes pour notre société.
11.10.2016, par Noël Dimarcq et Isabelle Sagnes
(Journal du CNRS)
La mesure du temps atteint aujourd’hui des précisions vertigineuses, grâce notamment aux apports de l’optique et de la photonique. Or la recherche de la précision ultime est une course de longue haleine qui est loin d’être achevée.
Il n’y a pas que la science qui soit affaire de mesures et d’exactitude. Sans que l’on s’en rende compte, surfer sur Internet ou déterminer sa position grâce à un GPS sont des opérations qui demandent des mesures de temps ou de distance d’une précision très élevée… et sans cesse croissante. À tel point que c’est une véritable course qui s’est engagée dans le monde, pour aboutir à des mesures toujours plus fines. Au cœur de cette course et objet de toutes les attentions des scientifiques et des industriels : le photon, sorte de petit corpuscule de lumière.
Dans l’histoire, les mesures de précision sur des ondes lumineuses ont souvent été associées à de grandes découvertes ou à des révolutions scientifiques. À la fin du XIXe siècle, l’expérience avec l’interféromètre Michelson a été déterminante pour l’émergence de la relativité restreinte. Plus près de nous, un interféromètre d’architecture similaire mais de dimensions géantes a permis la détection des ondes gravitationnelles. Ce type d’appareils aux architectures variées permet de mesurer très précisément diverses grandeurs physiques, comme la vitesse de rotation des fusées ou des avions, les déformations et les contraintes dans de grandes structures ou encore la valeur du champ de pesanteur terrestre, avec des applications en sismologie ou pour la recherche pétrolière.
Une seconde de décalage toutes les 15 milliards d’années
De toutes les mesures, celle du temps (et plus exactement la mesure d’une durée) a toujours été la plus précise. Et ce grâce aux nombreux apports de l’optique et de la photonique. Pendant des siècles, les horloges mécaniques ont pu être recalées grâce à l’observation de la lumière émise par les astres dans le ciel, permettant la détermination de l’orientation de la Terre et donc du temps astronomique. Depuis l’invention des horloges atomiquesFermer au milieu du XXe siècle, la précision de la mesure du temps s’est améliorée d’un ordre de grandeur tous les dix ans, atteignant aujourd’hui avec les horloges optiques des niveaux de précision de 18 chiffres après la virgule. Ce qui correspondrait à une dérive de seulement une seconde sur une durée équivalente à l’âge de l’Univers ! En cette période de Nobel, notons que cette progression des horloges atomiques a été permise par des méthodes photoniques innovantes dont la plupart ont été récompensées par des prix Nobel, souvent co décernés à des scientifiques français : Alfred Kastler en 1966 pour le pompage optique, Claude Cohen Tannoudji en 1997 pour le refroidissement et le piégeage des atomes par laser, Serge Haroche en 2012 pour le développement de processus quantiques de contrôle et de mesure de l’état d’un atome.
Des besoins toujours plus grands
Nul besoin d’attendre 15 milliards d’années pour exploiter pleinement la précision de ces horloges dans des expériences scientifiques ou dans des applications à fort enjeu socio-économique. Ainsi, les besoins de synchronisation des réseaux de télécommunications deviennent chaque jour plus contraignants avec l’augmentation du débit, le nombre d’objets connectés à synchroniser (20 milliards en 2020), la précision croissante exigée pour la synchronisation des systèmes de transactions bancaires à haute fréquence, des réseaux distribués d’énergie (smart grids) ou des nouvelles usines intelligentes exploitant la révolution numérique.
Mais l’application la plus connue à ce jour reste sans aucun doute les systèmes mondiaux de positionnement par satellites1 : ici, la position de l’utilisateur est calculée par triangulation à partir des distances entre ce récepteur et les satellites de la constellation qui émettent vers le sol des signaux synchronisés sur des horloges atomiques. Connaissant la vitesse de propagation de ces signaux, égale à la vitesse de la lumière, ces distances sont déduites des mesures des durées de propagation entre les satellites et le récepteur au sol. Cette application illustre à merveille l’importance de la précision de la mesure du temps : une erreur d’un milliardième de seconde conduit à une erreur de positionnement de 30 cm.
Ceci n’est pas gênant pour connaître la position d’une automobile mais n’est plus négligeable pour l’atterrissage des avions par exemple, ou en géophysique où la précision millimétrique est requise pour l’étude des mouvements des plaques tectoniques ou l’évolution du niveau des océans. Cette façon de mesurer une distance à partir d’une durée est très utilisée, dans les travaux publics mais aussi pour déterminer précisément – au centimètre près – la distance Terre-Lune par télémétrie laser. Une autre application plus terre à terre et moins agréable pour certains est le contrôle des vitesses des véhicules à l’aide de jumelles laser.
La mesure, un juge de paix pour la science
Les systèmes mondiaux de positionnement par satellites sont aussi une belle illustration que la théorie de la relativité d’Einstein n’est pas utile qu’aux scientifiques : les effets relativistes dus au mouvement des satellites (relativité restreinte) et à la gravitation terrestre (relativité générale) induiraient au bout d’un jour un décalage du temps des horloges correspondant à des erreurs de positionnement de plus de 10 km si ces effets n’étaient pas connus et corrigés ! Mais la théorie d’Einstein est elle-même mise sur la sellette par les théories contemporaines cherchant à unifier les théories de la physique quantique et de la gravitation. Encore une fois, ce sont des mesures de précision qui seront le juge de paix en cherchant à détecter une déviation à la théorie d’Einstein, par exemple avec des comparaisons d’horloges atomiques ultra stables fonctionnant dans les laboratoires et bientôt dans l’espace, comme l’horloge Pharao à atomes refroidis par laser, qui sera installée en 2018 sur la Station spatiale internationale.
Tous ces records de précision doivent beaucoup aux composants et systèmes photoniques qui eux aussi ont vu leurs caractéristiques s’améliorer au fur et à mesure de multiples innovations technologiques. Aujourd’hui, il est possible d’intégrer dans le volume d’une boîte à chaussures toutes les fonctions optiques qui occupaient une salle entière d’expérience il y a 20 ans : sources laser, moyens de contrôle efficaces des paramètres du faisceau laser, fibres optiques, etc. Mais la recherche de la précision ultime est une course de longue haleine qui est loin d’être terminée et exige encore beaucoup d’avancées scientifiques et technologiques. Le passé l’a montré, l’avenir le confirmera : les mesures de très haute précision conduisent indéniablement à des révolutions scientifiques et à des ruptures technologiques importantes pour notre société.
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
Le monde de la fusion
Le Stellarator, une alternative à ITER ?
https://www.iter.org/doc/www/content/com/Lists/Stories/Attachments/680/ITER_W7X.pdf
A+
https://www.iter.org/doc/www/content/com/Lists/Stories/Attachments/680/ITER_W7X.pdf
A+
- Robert64
- Contributeur HCFR
- Messages: 5320
- Inscription Forum: 12 Sep 2006 15:40
- Localisation: Sud Ouest
tu as jusqu'à demain 8 h pour nous faire un condensé de 500 mots max.
d'avance merci et que ça saute.
d'avance merci et que ça saute.
- baldabiou
- Messages: 1755
- Inscription Forum: 15 Mai 2011 4:38
- Localisation: choucroute / noix / cassoulet / pin o bè
|
Retourner vers Se cultiver_apprendre |