La 4G augmentera de 50 % l’exposition aux ondes

NOUVELOBS

par | Publié le 27 Août 2013

Selon les résultats de simulations réalisées dans 7 villes françaises,
le déploiement de la 4G devrait augmenter d’environ 50% l’exposition
du public aux ondes de téléphonie. 
JPDN/SIPA

Alors que deux rapports remis hier au gouvernement par le comité opérationnel sur les ondes de téléphonie mobile (Copic) expliquent que pour réduire l’exposition du public, il faudrait nécessairement baisser leur puissance actuelle et donc multiplier au moins par 3 leur nombre actuel, qu’en est-il de l’impact du déploiement prochain des réseaux de quatrième génération de téléphonie mobile ? Rappelons que la technologie 4G permet d’accéder à des débits 50 fois supérieurs à celui de la 3G, facilitant ainsi les téléchargements de fichiers volumineux et la création de nouveaux services.

Justement la dernière étape des expérimentations commanditées par les experts du Copic s’est penchée sur cette question de la généralisation du « très haut débit » sur le territoire. Ces travaux de simulation réalisés en 2012 révèlent donc que l’ajout d’antennes-relais 4G sur l’ensemble des villes étudiées, augmenterait en moyenne de 50%. « Les simulations dans sept villes illustrant les différentes typologies ont permis de confirmer que l’ajout d’émetteurs 4G crée une augmentation de l’exposition. En effet, en considérant des émetteurs 4G théoriques avec des hypothèses de déploiement en principe majorantes, on obtiendrait sur l’ensemble de ces villes, une augmentation moyenne de l’exposition en façade et au sol de 50 % environ. A titre d’exemple, au sol sur la zone d’expérimentation de Paris 14ème, l’exposition moyenne passerait de 0,6 V/m à 0,9 V/m environ » écrivent les experts dans leur rapport. 

Tandis que le chantier de la 4G s’accélère sur tout l’Hexagone, les conclusions de ce rapport devraient inquiéter davantage les opposants au dispositif. De toute façon malgré les oppositions, SFR indiquait récemment que sa 4G fonctionne déjà depuis mi-juin, avec 80% de la population couverte et Bouygues télécom lancera son dispositif 4G le 1er Octobre dans une centaine de villes.

l’article est ICI

Facebooktwitterlinkedinmail

On reprend doucement le chemin de la rentrée

  • Post category:Non classé

Voici un article pour la mise en train

Le Point

Le Point.fr – Publié le 14/08/2013 à 10:34

Certains smartphones sont des champions selon la norme française, mais sont pourtant très proches de la limite maximale autorisée aux États-Unis.

Un smartphone Samsung. Photo d'illustration. Un smartphone Samsung. Photo d’illustration. © Jo Yong hak / Reuters

 

  • Par Jacques Duplessy

C’est un bien étrange constat que publie Tawkon* mercredi. Certains smartphones proches de la limite légale d’exposition aux ondes électromagnétiques selon les normes américaines, mesurées par les autorités, seraient miraculeusement des champions en Europe, où les chiffres sont fournis par les constructeurs. Toutefois, la comparaison est risquée : les mesures du DAS (pour débit d’absorption spécifique), l’indice d’exposition aux ondes, ne sont pas effectuées de la même manière des deux côtés de l’Atlantique, et les fréquences de fonctionnement des réseaux sont elles aussi différentes.

“Aux États-Unis, chaque smartphone entrant sur le marché est testé par un laboratoire accrédité par les autorités, et les données de mesure du DAS sont rendues publiques”, explique au Point.fr un porte-parole de Tawkon. “En France, aucune information aussi précise n’est disponible, sauf à demander au constructeur”, regrette-t-il. “Une meilleure information concernant le DAS en France lors de l’achat des téléphones portables est indispensable”, ajoute-t-on chez Tawkon.

Des normes différentes

L’exemple le plus criant, selon Tawkon, est celui du Samsung Galaxy Mega, dont le DAS affiché aux États-Unis est de 1,09 W/kg (pour une limite légale à 1,6 W/kg), contre 0,204 W/kg en France, où la limite légale est de 2 W/kg. On passe ainsi d’un DAS équivalent à 68 % du maximum autorisé aux États-Unis, à seulement 10 % en France. Pour le même appareil. Et il n’est pas seul dans ce cas, en particulier dans la gamme Samsung, un constructeur que nous avons contacté à plusieurs reprises depuis début août, mais qui n’a pas donné suite à nos demandes. Autre exemple, le Nokia Lumia 925, dont le DAS maximal représente 88 % du maximum autorisé américain, et seulement 40 % du maximum européen.

Interrogé par nos soins, Nokia nous a renvoyé vers le Mobile Manufacturer Forum (MMF), une association internationale de fabricants d’équipements de radiocommunications qui rassemble notamment Samsung, Apple, Nokia, LG ou encore Sony. Celle-ci estime que la comparaison entre les États-Unis et la France n’est pas pertinente. Par exemple, les fréquences de la 3G sont de 2 100 MHz côté européen, alors qu’elles sont de 850 ou 1 900 MHz côté américain, ce qui influe sur l’exposition aux ondes. Pourtant, de nombreux appareils affichent des pourcentages comparables des deux côtés de l’Atlantique.

Une même unité de mesure… pour des données incomparables

“Il y a vraiment une multitude de facteurs qui influencent le DAS, ce n’est donc pas facile de comparer”, nous explique une porte-parole du MMF. Le principal facteur est la quantité de tissus (simulant le corps humain), sur laquelle les mesures sont faites. “En Europe, la moyenne est calculée sur 10 grammes, alors qu’aux États-Unis, c’est sur 1 gramme”, explique-t-on au MMF. Résultat : même si l’unité des deux DAS est la même, le Watt par kilogramme, il serait impossible de les comparer entre eux. “De plus, le DAS dépend de la fréquence utilisée, des modes de transmissions actifs (2G, 3G, WiFi, etc.) ou encore des configurations des réseaux”, ajoute-t-elle. “Quoi qu’il en soit, les terminaux commercialisés restent systématiquement en dessous des limites légales d’exposition, qui assurent la conformité des produits”, conclut-on chez les constructeurs.

Pourtant, il reste un fait : les deux normes sont censées présenter l’exposition aux ondes dans le “pire scénario”, c’est-à-dire avec l’Internet mobile ou le WiFi activé en plus de la voix. En toute logique, les smartphones devraient suivre un classement équivalent des deux côtés de l’Atlantique, les puces et les antennes étant quasi identiques dans les appareils. Or, des smartphones jugés très bons en Europe se retrouvent tout en bas du classement aux États-Unis, et vice-versa. Et selon Tawkon, les différences de structure des réseaux et les différences de mesure du DAS “n’expliquent pas une telle différence des valeurs affichées”.

Voie sans issue ?

Sans tomber dans la théorie du complot, il semble justifié de se demander si l’une des deux normes n’aurait pas besoin d’un petit lifting… Mais un obstacle de taille rendrait une telle entreprise difficile : les normes sont faites pour tous les appareils émettant des ondes, et il serait absurde de définir des limites légales en fonction uniquement des smartphones.

Tawkon soulève aussi un autre problème : la différence entre les communications qui se déroulent dans de bonnes conditions, et les autres. Lorsque l’antenne-relais est trop éloignée, par exemple, le téléphone émet à pleine puissance et le corps reçoit alors une dose décuplée. “Selon nos calculs, une minute d’appel à cette puissance équivaut à l’exposition d’un appel de 5 heures à puissance normale”, nous affirme le porte-parole de Tawkon en France. Une façon de rappeler l’utilité de son application pour smartphones, qui permet d’afficher le temps de communication durant lequel l’utilisateur a été très exposé aux ondes. L’appli Tawkon n’est toutefois disponible que sur Android : elle a été interdite sur l’App Store d’Apple, la pomme l’ayant jugée trop anxiogène, et elle ne dispose pas non plus de version pour Windows Phone.

*Tawkon est une start-up israélienne qui a notamment développé une application pour smartphone destinée à réduire l’exposition aux ondes électromagnétiques durant les appels.

Facebooktwitterlinkedinmail

On n’en parle pas au 20h30 sur les grandes chaines de télé

  • Post category:Non classé

BASTA !

Sur le site de Basta.net 3 articles décapants et édifiants sur ce que nous concocte l’industrie

La nourriture du futur que nous concocte l’industrie agroalimentaire  le lien pour lire l’article

Nanotechnologies : tous cobayes de la nano-bouffe ? C’est ICI

Perturbateurs endocriniens : le gouvernement va-t-il céder à la pression des lobbys ? le lien est la

Ça nous change un peu les idées, il n’y a pas que les CEM qui nous menacent

Facebooktwitterlinkedinmail

Comment les industriels utilisent la science comme un instrument de propagande

BASTA !

Imposture

Par Nolwenn Weiler (8 juillet 2013)


Études biaisées, pseudo-expertises, financements occultes : les industriels ont entrepris dès les années 50 de manipuler la science à leur profit. Inaugurées par les géants de la cigarette, les techniques de détournement de la science sont aujourd’hui utilisées par les producteurs de pesticides ou les climato-sceptiques. Le déclin des abeilles est ainsi devenu un « mystère » et le changement climatique « relatif ». Des stratégies décryptées par Stéphane Foucart, journaliste scientifique, dans son ouvrage La fabrique du mensonge, comment les industriels nous mentent et nous mettent en danger. Entretien.

Basta ! : Les industriels ont choisi de tordre la science, dites-vous, pour contrer ce qui pourrait entraver leurs activités. Par exemple les révélations sur les effets sanitaires désastreux de certains produits. Comment s’y prennent-ils ?

Stéphane Foucart : La technique « d’utilisation de la science » a été théorisée par John Hill, un grand communicant américain. Les industriels de la cigarette l’ont appelé au secours en 1953, au moment où sont publiés les premiers travaux scientifiques sur le lien entre cigarette et cancer. Suite à une réunion de crise [1], John Hill rédige un petit mémo, dans lequel il dit en substance : « La science est un outil très puissant, dans lequel les gens ont confiance. On ne peut pas l’attaquer frontalement. Il faut procéder autrement. En fait, il faut faire de la science, l’orienter, la mettre à notre main ». John Hill propose notamment la création d’un organe commun aux géants de la cigarette, pour financer la recherche académique, menée au sein de laboratoires universitaires par exemple. Des centaines de millions de dollars seront injectés dans la recherche via cet organe. Pour financer des études qui concluent à l’absence de danger du tabac, mais pas seulement. Ils ont par exemple beaucoup financé la recherche en génétique fonctionnelle, qui décortique les mécanismes moléculaires dans le déclenchement des maladies.

Ce type de recherche est bénéfique pour les industriels : les origines environnementales des maladies, et notamment du cancer, sont « oubliées » et occultées…

Le comité permanent amiante, en France, a-t-il adopté la même stratégie ?

En 2013, on a aussi affaire aux climato-sceptiques…

Cela participe de « la fabrication du doute », que vous pointez comme partie intégrante de ce détournement de la science par les industriels à leur seul profit ?

C’est notamment le cas pour les études qui mettent en évidence l’impact des pesticides sur les abeilles…

Les industriels ont par ailleurs la mainmise sur l’évaluation de leurs produits, notamment dans le domaine de l’agrochimie…


  

Le lien pour lire la réponse aux questions ci-dessus

 

et à d’autres……

Facebooktwitterlinkedinmail

Antennes: l’ASEF répond à l’Académie de Médecine

Écrit par L. Ferrer Créé le jeudi 10 janvier 2013 16:32

halimiciotlambert

Hier, l’Académie de médecine réaffirmait l’absence de risque des antennes relais. Une affirmation pour le moins remise en cause par les médecins de l’ASEF, qui ne décolèrent pas de voir les études se multiplier et l’Académie s’embourber dans le déni… Explications.

Combler le vide juridique. Dans un communiqué daté d’hier, l’Académie réagit à la proposition de loi sur la réglementation des antennes relais, faite par le député PS d’Aix-en-Provence, Jean-David Ciot. Cette proposition de loi, basée sur les recommandations de l’Association Santé Environnement France, a pour but de garantir l’égalité de chaque citoyen face au risque que représente les antennes relais. « Nous sommes d’accord sur un point avec l’Académie, la nocivité des antennes relais n’a pas encore été confirmée. Mais, il ne s’agit pas pour nous de trancher la question scientifique, ni d’interdire les antennes relais. Cependant, comme elles présentent un risque, il faut qu’il y ait une véritable égalité face à celui-ci. Or, la loi est la seule à pouvoir garantir cette égalité. A la cité HLM de La Pinette à Aix-en-Provence, nous comptons encore et toujours 14 antennes relais sur le même toit ! A Aubagne, 17 ! Peut-on se permettre d’imposer cela à une population en lui expliquant que nous en saurons plus dans 20 ans lorsque la science aura tranché?» explique le Dr Patrice Halimi, Secrétaire Général de l’ASEF, à l’origine d’un appel pour une loi sur l’implantation des antennes relais envoyé à tous les sénateurs et députés de la République. Son appel en septembre dernier avait d’ailleurs été soutenu par 3 000 citoyens.

Peut-être cancérigène…. Dans son communiqué, l’Académie évoque le fait que seuls les portables et non les antennes relais seraient reconnus comme des “cancérogènes possibles” par le Centre International de recherche sur le cancer (CIRC). Mais l’Académie n’a pas dû mettre ses fichiers à jour, puisqu’un rapport du CIRC a classé le 31 mai 2011 les champs électromagnétiques de radiofréquences comme «peut être cancérigènes» (http://www.iarc.fr/fr/media-centre/pr/2011/pdfs/pr208_F.pdf). «En début de semaine le rapport Bionitiative, basé sur 1 800 nouvelles études scientifiques, montrait que les ondes électromagnétiques pouvaient altérer la santé des utilisateurs de téléphones portables, des futurs parents, des jeunes enfants ou encore des femmes enceintes. Risque de tumeur maligne du cerveau, risque pour les spermatozoïdes des hommes, risque d’autisme pour les enfants à naître, risque pour le développement cérébral du fœtus : la liste est longue et inquiétante» affirme le Dr Pierre Souvet, Président de l’ASEF.

La déni Académie. « Faire comme si les problèmes n’existaient pas ne contribue pas à les résoudre, ni à les faire oublier de la population qui les vit et les subit au quotidien… L’Académie a eu beau affirmer en 1996, que l’amiante n’était pas vraiment problématique si on l’utilisait avec précaution…. Le produit, déjà classé cancérigène depuis 20 ans, a tout de même été interdit en France l’année suivante ….» conclut le Dr Patrice Halimi, qui se bat au quotidien pour que le doute légitime en cas de débat scientifique profite aux patients.

Contact presse: Ludivine Ferrer ( ludivine.ferrer@asef-asso.fr) 04 88 05 36 15

L’Association Santé Environnement France, qui rassemble aujourd’hui près de 2 500 médecins en France, est devenue incontournable sur les questions de santé-environnement. Elle travaille sur tous les sujets en lien avec la santé et l’environnement: qualité de l’air, ondes électromagnétiques, biodiversité, alimentation, etc. Dans sa démarche d’information, l’ASEF publie des petits guides bio-thématiques à télécharger gratuitement sur son site Internet www.asef-asso.fr.

Lire l’article sur le site de l’ASEF cliquez ICI

Facebooktwitterlinkedinmail

Faut-il avoir peur des nanotechnologies ?

Publié sur le monde.fr

Le 14 juillet 2013

Quand on parle des risques des nouvelles technologies, les nanotechnologies sont assurément un cas d’école. Il s’agit de la capacité de manipuler la matière à l’échelle atomique. Le préfixe nano (10-9) correspond à un milliardième d’une unité, ici le mètre. Il est désormais possible de fabriquer des nanomatériaux de façon industrielle, par exemple des nanotubes de carbone, du graphène (une couche d’atomes de carbone), des nanoparticules d’argent ou de dioxyde de titane. A cette échelle, ces matériaux possèdent des propriétés particulières. Ils sont non seulement plus légers, mais aussi plus résistants et plus réactifs. Ils sont d’ores et déjà présents dans de nombreux objets courants comme les produits cosmétiques, les pneumatiques, les ciments, les emballages alimentaires, les vêtements, etc.

Les nanoparticules posent évidemment des questions de sécurité sanitaire parce que leur taille leur permet de franchir les barrières biologiques. Le développement rapide de ce marché va conduire à une exposition humaine accrue. C’est la seule certitude que l’on ait, car pour le reste, nous faisons face à plus de questions que de réponses. Quelques études toxicologiques montrent qu’elles peuvent induire des processus pathologiques. A ce stade, c’est un signal plus qu’une preuve. En réalité, il s’agit d’un domaine où l’incertitude est maximale et c’est en cela qu’il s’agit d’un cas d’école. La mise sur le marché se fait à un rythme tel que les capacités d’évaluation des risques ne peuvent pas suivre.

La question posée est celle de concilier le développement industriel et la sécurité sanitaire. D’emblée, il faut souligner deux faits structurants. Le premier est qu’on ne dispose pas d’appareil permettant de mesurer les concentrations de nanoparticules dans l’air, les eaux, les aliments, etc. Cela signifie que l’outil normatif est inopérant. Le second est que l’interdiction de fabriquer ou de mettre sur le marché des nanomatériaux n’est pas envisageable pour deux raisons principales que sont la mondialisation des échanges des biens et l’absence d’un appareil de contrôle efficient. La France a rendu obligatoire depuis le 1er janvier 2013 pour les fabricants, distributeurs ou importateurs la déclaration des usages de substances à l’état nanoparticulaire ainsi que les quantités annuelles produites, importées et distribuées sur le territoire français. Un site dédié a été ouvert, www.r-nano.fr, pour réaliser déclaration. C’est déjà un premier pas. Comment aller plus loin ?

De nombreuses initiatives ont été prises ces dernières années pour favoriser le dialogue et la participation des citoyens aux décisions. Par exemple, le Nanoforum du Cnam en et le débat national de la Commission nationale du Débat public. Le premier s’est toujours bien déroulé, mais il concernait un cercle restreint de personnes désireuses de dialoguer plutôt que s’affronter. Le second a été plusieurs fois perturbé par des groupes protestataires pour qui le dialogue n’est qu’un prétexte, de manipuler l’opinion.

L’opinion publique sur ce sujet est indécise et cela se comprend compte tenu de la complexité du sujet. Un sondage pour La Recherche et Le Monde indiquait que si une large majorité des personnes interrogées admettent que la société ne peut pas progresser sans prendre certains risques, 59% des Français avaient le sentiment de mal comprendre les enjeux des nanotechnologies et à peu près autant déclarent ne pas avoir confiance dans les scientifiques pour dire la vérité sur les résultats et les conséquences de leurs travaux dans le domaine des nanotechnologies.

la suite de l’article est ICI

Facebooktwitterlinkedinmail

Algues vertes : le crime était presque parfait

  • Post category:Information

Rue89

Un long article sur le site de Rue 89, très instructif, sur la prise en compte des risques sanitaires. Nous vous invitons a le lire en entier en suivant le lien en bas de page

Terra eco 12/07/2013 à 18h04

Algues vertes : le crime était presque parfait

Terra Eco"

 

La plage de Saint-Michel-en-Greve (Cotes d’Armor), en juillet 2011 (LE SAUX LIONEL/SIPA)

 

 

Depuis plus de vingt ans, un médecin se bat pour prouver le lien entre des morts suspectes et la toxicité de la laitue de mer en putréfaction sur les plages bretonnes. Etrangement, l’Etat et la justice font la sourde oreille.

Plage de Saint-Michel-en-Grève, Côtes-d’Armor, 28 juin 1989. Le corps sans vie d’un joggeur de 26 ans est retrouvé dans un amas d’algues vertes.

Même endroit, 5 juillet 1999, 16 heures. Maurice Brifault s’écroule sur le volant de son tracteur de ramassage d’ulves, des algues vertes aussi appelées « laitue de mer ». Le quinquagénaire, sans aucun antécédent médical, est intubé et ventilé. Il restera cinq jours dans un coma profond.

Lantic, baie de Saint-Brieuc, toujours dans les Côtes-d’Armor, 22 juillet 2009. Thierry Morfoisse, 48 ans, meurt au pied de son camion de collecte d’algues vertes. Quelques minutes auparavant, il avait laissé un message téléphonique :

« Putains d’algues, j’en ai marre ! »

Saint-Michel-en-Grève, 28 juillet 2009. Vincent Petit, 28 ans, s’enfonce avec son cheval dans un mélange de sable et d’algues putréfiées. L’animal décède aussitôt. Le cavalier échappe de justesse à la mort, grâce à l’intervention d’un nettoyeur municipal de marées vertes.

La scène de crime est au bord de l’eau

Quatre accidents graves en vingt ans. Deux mortels. Les algues vertes ont transformé certaines plages paisibles de Bretagne en zones dangereuses.

En pourrissant sur le sable, elles dégagent du sulfure d’hydrogène (H2S), un gaz plus lourd que l’air et aussi toxique que le cyanure. A concentration élevée, il entraîne en quelques secondes un œdème pulmonaire, le coma et un arrêt cardiaque.

Qui pourrait imaginer que la mort se cache au détour de ces espaces naturels bordés d’une mer tranquille ? La scène de crime n’est signalée que par quelques panneaux d’avertissement. Bien trop discrets pour alerter des touristes.

Nitrates garantis toute l’année

Les résultats de l’autopsie jamais connus

Les juges d’instruction « censurent »

Un secteur clé de l’économie bretonne

Raphaël Baldos

Pour lire l’article c’est ICI

Facebooktwitterlinkedinmail

Logiciels d’aide à la prescription : un scandale sanitaire caché ?

  • Post category:Non classé

Publié le 10/07/2013 par Aurélie Haroche

JIM.fr est réservé aux professionnels de santé. Ces derniers doivent être identifiés comme tels pour accéder à l’ensemble des pages du site. A titre exceptionnel, cette rubrique est accessible sans login et mot de passe. Toutefois, sur ces pages Pro et Société, les lecteurs non logués ne seront pas exposés à des publicités pharmaceutiques et devront s’identifier pour accéder aux autres rubriques médicales du site JIM.fr.

Paris, le mercredi 10 juillet 2013 – En novembre 2011, Lydia Cohen, âgée de 72 ans mourrait à l’hôpital André Mignot (Versailles) victime d’une erreur de prescription fatale : son allergie à l’amoxicilline pourtant dûment signalée dans son dossier n’avait pas été prise en compte par le logiciel d’aide à la prescription (LAP) utilisé par l’établissement.

Ce drame est-il un fait isolé ? Sans doute pas. Le Parisien qui révèle l’affaire a en effet pu se procurer le rapport de la commission régionale de conciliation et d’indemnisation (CRCI) des accidents médicaux d’Ile de France où le cas de Lydia Cohen est abordé : ces travaux évoquent les dysfonctionnements multiples des LAP. « Si ces systèmes ont permis de clarifier les prescriptions, ils n’assurent pas une sécurité fine, en particulier dans le domaine de contre-indications en fonction de la pathologie des patients » peut-on lire dans ce rapport cité par le Parisien qui ajoute : « Il n’y a pas toujours d’alarme activée si un traitement pour lequel le patient a une allergie est prescrit ». De même, l’Agence nationale de sécurité du médicament (ANSM) interrogé par le quotidien indique que « plusieurs de dizaines de signalements de dysfonctionnements sur ces logiciels » lui ont été transmis ces derniers mois.

Quand les éditeurs de logiciels évoquaient le risque d’un « scandale sanitaire »

Interrogé par le Parisien, le directeur de la fédération LESSIS (qui regroupe des éditeurs de logiciels destinés aux professionnels de santé), Yannick Motel paraît vouloir désamorcer la polémique naissante. « L’erreur zéro n’existe pas, même en informatique ! Des bugs, des dysfonctionnements, il y en aura toujours, mais attention à ne pas chercher un bouc émissaire facile ». Soucieux aujourd’hui de ne pas attiser un climat qui pourrait facilement devenir explosif, les responsables de LESSIS ne se sont pas toujours montrés aussi précautionneux. Il y a en réalité longtemps que cette organisation alerte sur les risques que représente le manque de contrôle des logiciels médicaux et notamment des LAP. Ainsi, en janvier 2012, c’est sans ambages que la fédération estimait que le désordre régnant dans le domaine de la certification de l’ensemble des logiciels médicaux était un terrain idéal pour l’émergence de nouveaux “scandales” sanitaires. « Onze dispositifs de certification, homologation ou agrément dans le domaine des logiciels pour la santé, organisés par sept institutions différentes et couvrant onze domaines fonctionnels précis coexistent » déplorait LESSIS qui appelait à la création d’un guichet unique à l’instar de ce qui existe par exemple au Canada.

Mediator électronique

Plus récemment, au mois de main, la revue DSIH (le Magazine des systèmes d’information hospitaliers) donnait la parole à plusieurs acteurs concernés : Bernard D’Oriano, président de la Fédération LESSIS, Dominique Gougerot, éditeur de logiciel, Germain Zimmerlé, responsable des services d’information au CHU de Strasbourg et Jean-François Goglin, membre de la Fédération des établissements hospitaliers et d’aide à la personne privés à but non lucratif (FEHAP). Leur constat commun était semblable à celui établi par la Fondation LESSIS : les contrôles manquent de rigueur. « Si l’on veut éviter un « Mediator électronique », il faut tester, tester et encore tester, jusqu’à être sûrs d’avoir écarté tout risque d’erreur susceptible de créer un risque pour le patient » observe notamment Jean-François Goglin. Par ailleurs, tous évoquaient si non une multiplication tout au moins un nombre non négligeable de « bugs ». « Il y a quelque temps, nous avons été informés d’un bug susceptible de générer des erreurs dans le suivi des prescriptions dans une spécialité très sensible » note par exemple Germain Zimmerlé.

Posologie, durée de traitements, dénomination des traitements : les grandes erreurs des LAP

Pour lire la suite c’est lCI

Facebooktwitterlinkedinmail