jeudi 28 février 2013

Des robots remplaceront-ils bientôt les médecins ?



Serons-nous bientôt soignés par des machines ? Deux informaticiens américains ont développé un robot nettement plus fort que les médecins pour diagnostiquer les maladies et proposer le traitement adéquat. L’intelligence artificielle fait un nouveau pas en avant.
À l’avenir, les hôpitaux engageront peut-être des employés d’un genre nouveau. Si les robots chirurgiens intègrent peu à peu les blocs opératoires, bientôt, ils pourraient être accompagnés de leurs équivalents médecins. C’est du moins ce que laissent sous-entendre les travaux de deux chercheurs américains de l’université d’Indiana, ayant développé une machine bien meilleure que les humains pour prévoir les maladies et proposer les traitements les plus pertinents. 

Kris Hauser et Casey Bennett avaient déjà travaillé sur un robot capable de déterminer la thérapie adéquate pour une personne à un instant donné de la maladie. En partant de cette architecture, ils ont développé un nouveau programme afin de lui donner les moyens de s’adapter aux changements permanents de la situation du malade au cours du temps. 

Cet ordinateur combine désormais deux modèles théoriques lui permettant de faire des prévisions plutôt précises, appelés processus décisionnels markoviens et réseaux de décision dynamique. À partir de données cliniques, ces modèles statistiques permettent d'extraire les différentes pathologies possiblement liées aux symptômes. Quelques informations lui suffisent pour conclure sur la situation probable. 

Le robot écrase l’Homme pour les diagnostics
 
Dans la vie de tous les jours, les médecins sont parfois un peu obligés de tâtonner face à certaines maladies complexes. Des symptômes identiques peuvent apparaître pour des troubles différents. De ce fait, leur taux de réussite dans le diagnostic n’est pas de 100 %. De la même façon, le traitement préconisé n’est pas systématiquement le plus adapté, obligeant le patient à revenir, puisque son mal ne disparaît pas.
Ce graphique montre l'efficacité du robot (en bleu) face à la médecine classique (en rouge). Si le pronostic est plus pertinent de 41,9 %, les auteurs considèrent également que son coût d'utilisation (costs) est inférieur de 58,5 %. On serait presque tenté de confier sa santé à un programme informatique...
Ce graphique montre l'efficacité du robot (en bleu) face à la médecine classique (en rouge). Si le pronostic est plus pertinent de 41,9 %, les auteurs considèrent également que son coût d'utilisation (costs) est inférieur de 58,5 %. On serait presque tenté de confier sa santé à un programme informatique... © Avec l'aimable autorisation de l'université d'Indiana
Les auteurs de ce travail publié dans Artificial Intelligence in Medicine ont éprouvé leur machine en comparant la précision de ses prévisions par rapport à celles des médecins. Les données relatives à la santé de 500 personnes ont donc été fournies au robot. Celles-ci souffraient le plus souvent de dépression ou de maladies chroniques comme l’hypertension ou le diabète.
D’après les estimations des chercheurs, l’intelligence artificielle écrase l’intelligence humaine. Cette première s’est montrée 42 % plus pertinente dans le diagnostic et le traitement à suivre pour les patients. 

La fin des médecins humains, remplacés par des robots ?
 
Un tel succès n’est pas sans répercussions bénéfiques pour le système de santé et la société dans son ensemble. Un diagnostic plus rapide évite au patient une deuxième visite chez le médecin, ce qui l’engage à moins de frais. En retour, un traitement plus efficace permet là aussi de gagner de l’argent, mais aussi du temps. 

Le robot pourrait même faire des suppositions lorsque les données manquent. Dès qu’il en dispose, il peut vérifier ou infirmer ses hypothèses de départ et adapter son jugement, exactement comme le fait un médecin qui réajuste son point de vue en fonction d’éléments nouveaux.
Cela sonne-t-il le glas des médecins humains ? Probablement pas : ils ont le temps de voir venir, car pour les auteurs, la machine reste un outil. Ses algorithmes la rendent précise dans son interprétation, mais l’avis humain reste fondamental. Pour profiter au mieux de l’intelligence artificielle, il faut la faire collaborer avec notre esprit, afin que les deux se complètent au mieux. Et soignent plus efficacement.


mardi 26 février 2013

Microsoft corrige en urgence une faille d’Internet Explorer

Découverte la dernière semaine de l'année 2012, une faille critique d’Internet Explorer (versions 6, 7 et 8) a été colmatée par Microsoft grâce à un correctif à appliquer d’un seul clic. Malheureusement, celui-ci n’est que temporaire.

Il n’aura pas fallu longtemps à Microsoft pour réagir, preuve que le danger était réel. L’éditeur de Redmond vient en effet de publier un correctif pour son navigateur Internet Explorer, afin de combler une faille de sécurité critique annoncée le 29 décembre dernier par l’intermédiaire d’un bulletin de sécurité spécial. 

Il faut dire qu’il y avait urgence, puisque Microsoft reconnaissait que cette faille était déjà exploitée pour des attaques malveillantes de type « 0-day », c'est-à-dire sans qu’il existe de protection pour les contrer. Cependant, toutes les versions d’Internet Explorer n’étaient pas touchées. Le problème concernait en effet les versions 6, 7 et 8 sous Windows XP et Vista, mais pas Internet Explorer 9 sous Windows 7 ni Internet Explorer 10 sous Windows 8.
Une nouvelle faille de sécurité touche le navigateur Internet Explorer. Mais seulement dans ses versions 6, 7 et 8 utilisées sous Windows XP et Vista. Les utilisateurs de Windows 7 et Windows 8 ne sont pas concernés.
Une nouvelle faille de sécurité touche le navigateur Internet Explorer. Mais seulement dans ses versions 6, 7 et 8 utilisées sous Windows XP et Vista. Les utilisateurs de Windows 7 et Windows 8 ne sont pas concernés. © Microsoft
Concrètement, à cause de cette faille située au niveau de la gestion de la mémoire par le navigateur, un pirate pouvait prendre le contrôle d’un PC si son utilisateur visitait une page piégée ou cliquait sur un lien malicieux (dans son logiciel de courrier électronique ou de messagerie instantanée). De quoi faciliter la propagation d’un ver ou d’un virus ou subtiliser des informations personnelles comme des codes d’accès ou un numéro de carte bancaire.

Une simple rustine pour le moment
 
Avant de publier son correctif en début de semaine, Microsoft conseillait d’effectuer une vérification des paramètres de sécurité d’Internet Explorer afin de les régler en position maximale pour bloquer l’exécution de scripts ActiveX. Le patch proposé depuis, de type Fix It, permet de combler la faille sans avoir à redémarrer l’ordinateur

Mais attention : il ne s’agit que d’une simple rustine, une solution provisoire qui modifie quelques clés du registre de Windows, mais qui est loin de résoudre totalement le problème. Il faudra sans doute attendre pour cela le 8 janvier ou le 12 février 2013, date des prochains Patch Tuesdays, ces jours de diffusion de correctifs pour l’ensemble des logiciels Microsoft. On trouvera peut-être des mises à jour spécifiques aux versions 6, 7 et 8 d’Internet Explorer. Alors seulement, ces versions seront définitivement protégées contre cette faille de sécurité.

lundi 25 février 2013

Une unique protéine pourrait-elle soigner cancers, Alzheimer et infections ?



Un remède miracle ? Des chercheurs américains ont montré qu’une protéine, appelée Tat-bécline 1, stimule un mécanisme cellulaire qui préserverait d’un spectre très large de pathologies, allant des cancers aux infections en passant par les maladies neurodégénératives… Une piste à creuser absolument !
 
Un pour tous, tous pour un. Cette formule célèbre des mousquetaires d’Alexandre Dumas père pourrait s’appliquer à un éventuel médicament potentiellement capable de prévenir (et pourquoi pas de traiter) une large gamme de maladies parmi les plus terribles rencontrées par l’espèce humaine. Rien que cela... 

C’est du moins ce qu’espère une équipe de chercheurs affiliés à l’University of Texas Southwestern Medical Center (Dallas, États-Unis). À ce stade d’expérimentation, ils sont conscients que leur protéine modifiée, Tat-bécline 1, est encore bien loin de devenir le remède miracle au cancer, aux maladies neurodégénératives ou aux infections. Cependant, les premières analyses publiées dans Nature suscitent l’optimisme. 

L’autophagie comme moyen de prévention des maladies
 
Ce peptide correspond à une partie de la séquence d’une protéine humaine, la bécline 1. De précédentes études ont mis en avant son rôle clé dans le déclenchement d’un processus fondamental : l’autophagie. C’est le moyen utilisé par les cellules pour recycler leurs protéines et les autres molécules usagées afin de récupérer les briques nécessaires à l’élaboration de nouveaux composés. Pour ce faire, la cellule utilise des enzymes qui digèrent une partie du cytoplasme.
La maladie d'Alzheimer, la principale cause mondiale de démence, se caractérise par l'accumulation de protéines, nommées bêta-amyloïdes et Tau, dans le cerveau. Une autophagie efficace, induite par la bécline, pourrait débarrasser l'encéphale de ces déchets.
La maladie d'Alzheimer, la principale cause mondiale de démence, se caractérise par l'accumulation dans le cerveau de protéines nommées bêta-amyloïdes et Tau. Une autophagie efficace, induite par la bécline, pourrait débarrasser l'encéphale de ces déchets. © Mark Lythgoe, Chloe Hutton, Wellcome Images, Flickr, cc by nc nd 2.0
L’autophagie est nécessaire à l’équilibre de la cellule et à sa bonne santé. Certains troubles ou maladies, comme le vieillissement, les cancers, certaines pathologies neurologiques ou infectieuses sont parfois associées à un dérèglement de ce processus naturel. L’activité de la bécline 1 a également été montrée dans la protection contre les cancers du sein, du poumon ou des ovaires.
Les auteurs ont donc voulu tester les propriétés pharmacologiques de leur molécule particulière, dotée d’une affinité pour le VIH, le virus du Sida. Les souris traitées sont restées insensibles à deux infections potentiellement mortelles, que ce soit par le virus du Nil occidental ou celui du chikungunya. Expérimenté sur des cellules humaines, le VIH n’est jamais parvenu à pénétrer ses cibles. 

Tat-bécline 1, le médicament pour sauver l’humanité ?
 
Ce travail n’en est qu’à un stade très préliminaire, mais toutes ces recherches cumulées suggèrent que la Tat-bécline 1 serait dotée d’un pouvoir préventif plutôt efficace. Les chercheurs misent également sur son pouvoir thérapeutique et souhaitent creuser davantage la piste. 

Qu’en attendre ? Les remèdes miracles annoncés à l’avance se sont souvent révélés impuissants. La preuve : le Sida se traite à l’aide de trithérapies (associations de trois médicaments) sans pour autant éliminer le virus, quand les cancers nécessitent plusieurs traitements, différents selon les cas et les patients. Quant à Alzheimer ou les autres maladies neurodégénératives, les succès sont pour l’heure très limités, et les pathologies ne cessent de progresser avec l’âge. Au mieux, la Tat-bécline 1 pourrait servir de complément aux thérapies déjà proposées… Mais ne devrait pas à elle toute seule sauver le monde !


jeudi 21 février 2013

La liste des médicaments à bannir selon la revue Prescrire



Après le Médiator, les pilules de 3e et 4e générations ou le Diane 35, la revue Prescrire enfonce le clou en établissant une liste de médicaments qui, selon elle, devrait être retirés du marché pour les dangers qu’ils représentent. Cela permettra-t-il d’éviter un nouveau scandale sanitaire ?
 
Chaque année, la revue Prescrire a pris pour habitude de publier dans son édition de février le palmarès des meilleurs médicaments mis sur le marché l’année précédente. L’année 2012 semble ne pas avoir été un très bon cru. Aucun des traitements n’a reçu de la part de la rédaction la mention « Pilule d’or », récompensant des progrès conséquents. 

Seuls deux traitements, contre le cancer métastasé de la prostate et l’hépatite C chronique, sont considérés comme des avancées thérapeutiques, même si leur efficacité est modérée. En revanche, sur les 80 autres traitements évalués, 15 seraient même dangereux, soit près d'un sur cinq. Des résultats qui ont de quoi inquiéter… 

Ce genre d’alerte n’a rien de nouveau. L’une d’elles a été lancée dans un livre, publié en septembre dernier par Bernard Debré et Philippe Even et qui avait fait polémique. Les affaires récentes du Médiator, des pilules de 3e et 4e générations ou du Diane 35 révèlent peut-être quelques failles de la part des autorités sanitaires. 

Des médicaments inutiles et trop dangereux
 
C’est du moins l’avis de Prescrire qui publie sur son site la « liste des médicaments plus dangereux qu’utiles ». La revue considère qu’en 2013 circulent encore bien trop de traitements dont la balance bénéfices-risques est défavorable aux patients. La faute, selon elle, au laxisme des agences de santé qui devraient retirer de la vente toutes ces molécules.
Devrions-nous nous débarrasser d'un médicament sur cinq ? Certains accusent des traitements d'être inefficaces et dangereux. Ce à quoi d'autres rétorquent que quelques patients ne répondent pas toujours aux molécules classiques et ont besoin, pour être soignés efficacement, de recourir à ces médicaments suspects.
Devrions-nous nous débarrasser d'un médicament sur cinq ? Certains accusent des traitements d'être inefficaces et dangereux. Ce à quoi d'autres rétorquent que quelques patients ne répondent pas toujours aux molécules classiques et ont besoin, pour être soignés efficacement, de recourir à ces médicaments suspects. © Gimbat, StockFreeImages.com
La rédaction s’est arrêtée sur les analyses parues dans ses colonnes entre 2010 et 2012. Le constat n’a rien de rassurant car la liste est longue. Y sont mentionnés :
  • les médicaments actifs qui exposent à des risques disproportionnés en regard des bénéfices qu’ils procurent ;
  • des médicaments anciens aujourd’hui dépassés en efficacité et en sûreté par des molécules plus modernes ;
  • des traitements récents dont la balance bénéfices-risques est inférieure à ceux déjà existants ;
  • les substances dont l’efficacité n’est pas prouvée au-delà de l’effet placébo et dont les dommages potentiels sont disproportionnés ;
  • les associations médicamenteuses qui exposent aux effets indésirables cumulés et à des interactions dangereuses.
Une liste pour faire réagir les autorités sanitaires ?
 
Parmi les médicaments montrés du doigt, certains sont pourtant communs. Le Motilium (dompéridone), par exemple, expose les patients à des troubles cardiaques et augmente les risques de mort subite. Le Xenical, déjà incriminé et qui combat l’obésité avec un succès très relatif, entraîne des troubles digestifs et abîme le foie. Le Zyban ou le Champix, utilisés pour aider au sevrage tabagique, ne sont pas non plus dénués d’effets secondaires importants. 

Ce ne sont que quelques exemples. La rédaction de Prescrire veut probablement pousser à réagir l’Agence nationale de sécurité du médicament et des produits de santé (ANSM). Elle rappelle également que certains produits sont appréciés des soignants et des patients, notamment grâce aux efforts payants des publicités, sans pour autant démontrer une réelle efficacité. Les accusations portent sur l’attentisme des autorités sanitaires qui n’informeraient pas suffisamment médecins, pharmaciens et population des avantages et des inconvénients de chaque médicament.


mercredi 20 février 2013

De la bière pour traiter le diabète ou certains cancers ?



Il a été démontré que des composés de la bière issus du brassage du houblon, les humulones, pouvaient contribuer à traiter différentes pathologies, comme le diabète ou le cancer. Leur conformation précise vient d’être établie, ouvrant la voie au développement de nouveaux médicaments…

La bière serait-elle aussi vieille que la civilisation ? Il y a 5.000 ans déjà, le peuple sumérien louait Ninkasi, la déesse de la bière. Cette boisson alcoolisée s’obtient après un mélange de malt et d’eau chaude, entraînant après différents processus chimiques la formation d’un jus sucré. Une fois porté à ébullition, on y ajoute du houblon. Ce sont les molécules de cette plante, les humulones, dérivées de la lupuline, qui confèrent à la boisson son goût et sa mousse caractéristiques. 

Des études publiées ces dix dernières années semblent montrer l’intérêt thérapeutique des humulones, utilisées en petite quantité, contre de nombreuses pathologies telles que le diabète, certains cancers ainsi que l’inflammation ou la prise de poids. 

Cependant, il est encore un peu tôt pour en faire des médicaments. L’une des étapes essentielles avant d’atteindre ce but consiste à déterminer la structure tridimensionnelle de chacun de ses composés. C’est ce que viennent de faire des chercheurs de l’université de Washington (Seattle, États-Unis), permettant de mieux comprendre comment réagissent ces molécules et quels pourraient être leurs modes d’action. 

La forme des humulones décryptée
 
Il existe plusieurs types d’humulones, de structures très proches, mais aux propriétés biologiques potentiellement différentes. Même si des composés chimiques sont proches, les variations qu'ils présentent sont fondamentales en médecine et peuvent entraîner des réactions inattendues. Par exemple, on se souvient du thalidomide, un médicament prescrit à la fin des années 1950 et au début des années 1960 aux femmes enceintes victimes de nausées matinales. Ce médicament a provoqué en grand nombre de terribles malformations congénitales. Mais des analyses ont montré qu’une seule molécule à la structure particulière était responsable des pathologies, tandis que les autres, pourtant chimiquement proches, ne présentaient aucun danger.
Les humulones, issues du houblon lors du brassage de la bière, confèrent à la boisson son goût particulier, permettent à la mousse de maintenir une certaine cohésion et ont des propriétés antibactériennes et antioxydantes. Ces molécules acides possèdent le plus souvent un cycle de cinq atomes de carbone.
Les humulones, issues du houblon lors du brassage de la bière, confèrent à la boisson son goût particulier, permettent à la mousse de maintenir une certaine cohésion et ont des propriétés antibactériennes et antioxydantes. Ces molécules acides possèdent le plus souvent un cycle de cinq atomes de carbone. © Werner Kaminsky
Les scientifiques américains ont donc cherché à établir la conformation spatiale des humulones après extraction, au moment du brassage et de la purification des molécules. Après cristallisation de ces acides, les auteurs de ce travail, publié dans Angewandte Chemie International Edition, ont utilisé la cristallographie par rayons X pour déterminer la structure des molécules. 

Non, la bière n’est pas un médicament
 
Lors du brassage de la bière, la lupuline se transforme et son cycle à six atomes de carbone initialement n’en a plus que cinq. À la fin du processus, deux groupes latéraux peuvent venir se placer au-dessus ou en dessous de l’anneau formé par le cycle, donnant naissance à quatre agencements possibles. 

Ainsi, il est possible de déterminer avec quels autres composés chacune de ces molécules peut interagir pour, à terme, comprendre leur activité dans les organismes. L’étape est préliminaire mais essentielle dans le développement de médicaments. Elle permet de voir quelles molécules sont actives contre des maladies définies. Cette découverte permettra certainement d’accélérer le processus de mise au point de nouveaux traitements. 

Malheureusement pour les amateurs de bière, la boisson en elle-même n’est pas vraiment préconisée pour améliorer la santé, surtout si elle est consommée sans modération. Seules les humulones, prises de manière isolée et en petite quantité, pourraient s’avérer bénéfiques. Malgré ses millénaires d’histoire, la bière ne connaît donc pas encore le même sort que le cannabis, qui est autorisé dans certains pays pour un usage thérapeutique même s’il est banni pour un usage récréatif. En revanche, elle pourrait être considérée comme le vin rouge : bénéfique à doses modérées.


mardi 19 février 2013

Plus de temps devant la télé, moins de spermatozoïdes



Une nouvelle étude suggère un lien entre le temps passé devant la télévision et la quantité de spermatozoïdes produits. L’inactivité physique pourrait être une des causes de la baisse de la fertilité constatée ces dernières décennies, mais ce ne serait probablement pas la seule.
 
Les dernières études n’ont rien de rassurant. Toutes concordent et semblent démontrer que le sperme des hommes perd en qualité et en quantité depuis quelques décennies. Pourquoi ? On ne le sait pas précisément. Plusieurs pistes sont lancées, avec comme principaux suspects notre mode de vie moderne ainsi que certains polluants de l’environnement. 

Par exemple, l’obésité et les régimes hypercaloriques figurent sur la liste des accusés. Plusieurs études ont également semblé incriminer le sport : un excédent d’activité physique pourrait provoquer une baisse de la concentration en spermatozoïdes. Une thèse discréditée par une étude parue en novembre dernier. 

Une nouvelle recherche, menée par Jorge Chavarro et ses collègues de la Harvard School of Public Health, va également dans ce sens. Elle montre que les hommes qui passent le plus de temps assis à regarder la télévision produisent beaucoup moins de spermatozoïdes que les plus sportifs. 

Des spermatozoïdes n’aiment pas la télévision
 
Cette étude, publiée dans le British Journal of Sports Medicine, se base sur les échantillons de sperme et les réponses à un questionnaire de 189 jeunes américains âgés de 18 à 22 ans. Ils devaient notamment préciser le temps moyen hebdomadaire passé devant la télévision ou à pratiquer une activité physique.
Le sport favoriserait la production de spermatozoïdes quand la télé aurait l'effet inverse. Nos gamètes ne seraient donc pas faits pour l'inactivité.
Le sport favoriserait la production de spermatozoïdes quand la télé aurait l'effet inverse. Nos gamètes ne seraient donc pas faits pour l'inactivité. © Anna Tanczos, Wellcome Images, Flickr, cc by nc nd 2.0
Le constat semble clair. Chez ceux passant plus de 20 h par semaine à zapper sur leur canapé, le nombre de spermatozoïdes est inférieur de 44 % à celui de leurs homologues qui y consacrent moins de temps. À contrario, les hommes pratiquant au moins 15 h de sport par semaine disposent en moyenne de 73 % de gamètes en plus. En revanche, pour les autres paramètres, comme la motilité ou la morphologie, les auteurs n’ont constaté aucune différence entre les groupes. Que les amoureux de la télécommande se rassurent, aucun des participants ne se situait en dessous du seuil de fertilité, fixé par l’OMS à 15 millions de spermatozoïdes par millilitre de sperme.
D’autre part, il est impossible pour les chercheurs d’affirmer si de tels écarts peuvent effectivement influer sur la capacité à procréer, leur travail n’ayant pas évalué ce paramètre. 

La télévision, un coupable idéal ?
 
Les chiffres sont inquiétants quand on sait qu’en 2012, les Français sont restés en moyenne 24 heures et 50 minutes par semaine devant le petit écran, soit 30 minutes de plus qu’en 2011. Cela pourrait-il expliquer pourquoi le taux de spermatozoïdes a diminué d’un tiers entre 1989 et 2005, au sein de l’Hexagone ? 

La télévision est déjà associée à des pathologies cardiaques ou métaboliques, comme l’obésité ou le diabète, et la position assise qu’elle implique contribuerait à réchauffer le scrotum et les testicules, diminuant ainsi la concentration spermatique. Cependant, les études portant sur les travailleurs qui passent leur journée sur leur chaise de bureau sont plus contrastées. Jorge Chavarro et ses consorts suggèrent que l'effet néfaste de la télévision serait dû à la diffusion de publicités pour des aliments riches en calories et que son visionnage s’accompagne parfois d’une nourriture peu équilibrée.
Malgré tout, il existe d’autres facteurs de risques affectant les populations de spermatozoïdes. Pour trouver les explications au phénomène, il faut probablement mixer tous les résultats qui nous parviennent afin de constater que les paramètres sont nombreux. Ce travail ne concerne en effet qu’un faible effectif et, de l’aveu même des auteurs, ne peut être généralisé. Des recherches complémentaires s’imposent afin de vérifier le lien de cause à effet. Une question demeure : se mettre à courir plutôt que de regarder un DVD permettrait-t-il aux hommes de restaurer leurs spermatozoïdes perdus ?


lundi 18 février 2013

Les émissions de CO2 liées à Internet polluent autant que l'avion



La pollution générée par Internet devient un réel problème. Si les données semblent virtuelles, leur transit entre serveurs est pourtant bien concret et polluerait autant que l’industrie aérienne, selon de récentes études. Des chercheurs élaborent de nouveaux modèles d'échange d'information afin de trouver un moyen de réduire au mieux l'empreinte carbone d’Internet.

Se mettre au vert signifierait-il privilégier le papier à Internet ? Sur le Web, chacun partage et échange de différentes manières (par écrit, de façon sonore, visuelle, etc.). Et la virtualité de ce monde est souvent perçue comme une réponse aux problèmes environnementaux tels que l’utilisation excessive du papier, et donc la déforestation, ou bien l’utilisation des transports routiers ou aériens pour transmettre l’information. 

Pourtant, la génération de 50 millions de tweets émettrait une tonne de CO2 dans l’atmosphère. Le simple fait de mettre en copie un destinataire pour un courriel équivaudrait à l'émission de 6 g de CO2. En outre, les chercheurs du Centre for Energy-Efficient Telecommunications (CEET) et des laboratoires Bell ont montré que les technologies de l'information et de la communication (TIC), qui englobent Internet, les vidéos, les fichiers sonores et autres services dans le cloud, produiraient plus de 830 millions de tonnes de CO2 chaque année. Cela représente 2 % des émissions globales du principal gaz à effet de serre. Une telle quantité de CO2 équivaut aux émissions de l’industrie aérienne. 

La principale source d'augmentation des émissions est liée à l’utilisation croissante des serveurs. À titre d’exemple, Google en utilise 900.000 pour ses activités. La consommation est tellement importante que l’entreprise envisage d'installer ses serveurs en pleine mer afin d'utiliser l'énergie des vagues. Le géant Facebook envisage de son côté de migrer au nord pour refroidir ses serveurs de manière naturelle ! De plus, les projections suggèrent que l'usage des TIC devrait doubler d’ici 2020. Mais estimer les flux d’information et leur équivalent d’émission de CO2 est loin d’être une tâche facile. En effet, il faut prendre en compte le trafic des données et la consommation d'énergie des différents équipements réseau pour estimer fidèlement la production de CO2 engendrée. Les chercheurs du CEET et des laboratoires Bell ont ainsi cherché à améliorer ces modèles de projection.
L'échange d'information sur Internet depuis votre ordinateur se fait grâce à différents réseaux interconnectés (les nuages) par des routeurs (en bleu). Pour atteindre un serveur (en bas à droite de l'image), les routeurs transmettent l'information de proche en proche. Ils constituent des nœuds du réseau.
L'échange d'information sur Internet depuis votre ordinateur se fait grâce à différents réseaux interconnectés (les nuages) par des routeurs (en bleu). Pour atteindre un serveur (en bas à droite de l'image), les routeurs transmettent l'information de proche en proche. Ils constituent des nœuds du réseau. © Mro, Wikipédia, GNU GPL
Simuler les flux d'information d'un réseau
La principale question à laquelle les chercheurs ont tenté de répondre est de savoir si la fiabilité des modèles dépend de la complexité du réseau. Publiée dans le journal Environmental Science & Technology (EST), l’analyse décrit la mise en place de nouveaux modèles qui estiment plus précisément l’énergie consommée et les émissions de CO2 qu’Internet et les télécommunications engendrent. Ils ont appliqué ces modèles d'abord sur un réseau simulé, puis sur le réseau informatique réel déployé dans la majorité des universités de Californie. Le couplage des deux approches a mis en évidence que la fiabilité des prévisions est largement dépendante de la taille du réseau, du trafic total et du nombre de nœuds. 

D’après les chercheurs, rendre la consommation énergétique des installations plus efficace, utiliser plus d’équipements à basse consommation énergétique et faire appel aux énergies renouvelables sont les trois facteurs déterminants dans la réduction des émissions de CO2. L'amélioration de la précision des modèles permettra aux industries et aux gros réseaux de télécommunications d'optimiser leur consommation d'énergie. 

Source: Futura Science


samedi 16 février 2013

Qwant, le moteur de recherche français, est lancé



Avec l’intention affichée de marcher sur les platebandes de Google, Bing et Yahoo, une entreprise française vient de lancer Qwant, en version bêta. Original, il offre une présentation soignée et une recherche dans les messages diffusés sur les réseaux sociaux.
 
Dans un pays où près de 90 % des recherches sur le Web s’effectuent à l’aide du service de Google, une jeune entreprise se lance. Qwant, élaboré depuis deux ans dans la plus grande discrétion, vient d’être présenté en version bêta dans 15 pays et en 35 langues. 

Comme pour Volunia, on ne sait pas vraiment ce qui se cache derrière cet ensemble : ni la puissance de recherche ni la pertinence des données. Il faut donc tester pour voir. C’est bien ce qu’espèrent les fondateurs, qui comptent sur le buzz en guise de campagne publicitaire. « Il valait mieux ne pas dire "voilà ce que nous allons faire", mais plutôt "voilà ce que nous avons fait" », a expliqué Jean-Manuel Rozan, président et cofondateur, issu du milieu de la finance, dans un entretien accordé au Buzz Media ─ Le Figaro.
En présentation « Classic », Qwant affiche une page présentée en colonnes, avec une catégorie pour les articles récents (« Live »), une autre pour un assez mystérieux « Qnowledge Graph » et une rubrique « Shopping », à la destinée plus claire. On remarque aussi « Social », pour fouiller dans les messages des uns et des autres.
En présentation « Classic », Qwant affiche une page présentée en colonnes, avec une catégorie pour les articles récents (« Live »), une autre pour un assez mystérieux « Qnowledge Graph » et une rubrique « Shopping », à la destinée plus claire. On remarque aussi « Social », pour fouiller dans les messages des uns et des autres. © Qwant
Qwant séduit d'abord par la forme
La première impression est celle d’une présentation soignée et plutôt originale. Par défaut, les résultats sont organisés en cinq rubriques : « Web » (recherche par pertinence), « Live » (articles récents, en général dans l’actualité), « Qnowledge Graph » (la ressemblance avec le Knowledge Graph de Google n’est sans doute pas fortuite), « Social » (recherche sur les réseaux sociaux) et « Shopping » (qui ramène des sites commerciaux). S’y ajoute un bandeau montrant des vidéos et des photos. 

Cette présentation baptisée « Classic » peut céder la place à trois autres écrans : « Mosaic » (des encadrés en vrac repérables par un code couleur), « Media » (limitant les résultats aux photos et aux vidéos) et « People » (seules apparaissent des personnes ou des organisations). Ces présentations peuvent être assez confuses, mais on peut sélectionner les catégories affichées. Le tout semble bien propre et assez commode. L’écran importe peu, car l’interface s’adapte à la taille et au format. Nativement, Qwant fonctionne donc aussi bien sur ordinateur que sur smartphone ou tablette

Recherches dans les commentaires des réseaux sociaux
 
Sur le fond, la grande nouveauté est l’apparition des commentaires laissés sur Facebook, Twitter, Google+ ou autre. Ils sont ramenés par l’outil de recherche avec, semble-t-il, une grande efficacité. Si Qwant a du succès, il faudra s’y faire : un commentaire public sur un réseau social pourra être largement diffusé à la planète entière à l’occasion des recherches des internautes. Par exemple, actuellement, les mots « lasagne » et « cheval » connaissent une grande popularité.
Pour la solidité du système et la pertinence des résultats, Jean-Manuel Rozan met en avant la participation de Pertimm, qui propose des services professionnels de recherche d’informations à de nombreuses entreprises, comme Meetic ou la Nasa. Qwant s’oriente d’ailleurs surtout vers le secteur professionnel, où il espère tirer la majeure partie de ses revenus.


Microsoft annonce une faille de sécurité béante dans Windows



Les utilisateurs d’Internet Explorer et d’Opera doivent-ils être plus vigilants que les autres ? C’est ce que suggère Microsoft qui vient de publier une information sur une faille de sécurité.

La faille est dite « zero day », c’est-à-dire découverte alors qu’elle est déjà exploitable. Elle est ouverte dans Internet Explorer et concerne le format MHTML. Avec un M pour Mime (Multipurpose Internet Mail Extensions), cette manière de coder un script HTML permet d’encapsuler une page Web entière, avec tous ses éléments (photos, vidéos…), dans un seul fichier. Le codage Mime est utilisé dans les logiciels de courrier électronique pour inclure dans un message un affichage décrit en HTML ou même des caractères accentués, non prévus à l’origine dans le courrier électronique qui ne connaissait que le code ASCII à 7 bits.

L’alerte de Microsoft explique qu’Internet Explorer, en ouvrant ce genre de fichier, peut exécuter consciencieusement les codes qui s’y trouvent encapsulés. Un programme malveillant peut donc s’y cacher et être lancé à ce moment. Il faut pour cela que l’utilisateur ouvre une page Web déclenchant l’ouverture du fichier et clique là où on lui demande. Un logiciel de messagerie reconnaissant le MHTML ferait de même, mais Outlook et Windows Mail disposent d’une sécurité à cet égard et, par défaut, désactivent ces scripts inclus dans un e-mail. Côté navigateurs, hormis Internet Explorer, seul Opera reconnaît ce format MHTML.

Les ingénieurs de Microsoft travaillent pour colmater la brèche…


vendredi 15 février 2013

Cyberattaque : il faut désactiver Java de toute urgence ! (MAJ)



(MAJ) Java : la mise à jour pour corriger la faille est publiée
Après l'annonce de cette faille gravissime et semble-t-il déjà exploitée, Oracle a mis en ligne ce weekend une mise à jour (Java SE 7u11). Cette nouvelle version, Java 7.11 donc, résout le problème.
-----------------
Article initial paru le 12 / 01 / 2013 à 11 h 30
Depuis quelques jours, des cybercriminels exploitent une faille du composant Java des navigateurs Web, afin d'exécuter du code malicieux sur les machines. Il n'y a pas d'autre parade que la désactivation de Java pour échapper à cette attaque.
 
Tous les éditeurs de solutions antivirus, et même le département de la Sécurité intérieure des États-Unis, le disent d’une seule voix : il est impératif de désactiver le composant Java immédiatement ! Une faille dite zero day Java vient (encore une fois) d’être découverte.
Cette brèche dans le système est utilisée par des cybercriminels depuis le 6 janvier. Lorsqu’elle est exploitée, elle permet de rediriger le navigateur sur une page piégée. C’est à partir de celle-ci que des codes peuvent être exécutés pour contaminer le PC de l’utilisateur et éventuellement appliquer la technique très à la mode du ransomware.
Même s'il est possible de subir l'attaque à partir d'un site d'information ou de météo via ses publicités, les risques sont plus importants sur un site pornographique (illustration ci-dessus). Une fois la page affichée (1), une requête part du serveur du site pour atteindre celui qui héberge le kit permettant l'attaque (2). Celui-ci va alors exploiter la faille de Java sur l'ordinateur de l'utilisateur (3). Enfin, une fois la prise de contrôle de la machine effectuée, le cybercriminel peut installer à distance un ransomware (4).
Même s'il est possible de subir l'attaque à partir d'un site d'information ou de météo via ses publicités, les risques sont plus importants sur un site pornographique. Une fois la page affichée (1), une requête part du serveur du site pour atteindre celui qui héberge le kit permettant l'attaque (2). Celui-ci va alors exploiter la faille de Java sur l'ordinateur de l'utilisateur (3). Enfin, une fois la prise de contrôle de la machine effectuée, le cybercriminel peut installer à distance un ransomware (4). © Symantec
À priori, à part la désactivation du composant Java, il n’y pas d’autre façon de protéger la machine pour le moment. Ceci dit, Jindrich Kubec, un analyste de l'éditeur de solutions de sécurité Avast! interrogé par Futura-Sciences, a expliqué que les antivirus sont dotés de plusieurs parades pour amenuiser la portée de ces « exploits ». Ainsi, la société se veut rassurante en précisant qu’elle est capable de bloquer sur les serveurs des cybercriminels les éléments Java, Flash ou PDF qu’ils contiennent. 

Depuis le mois d’août, des failles de sécurité conséquentes sont régulièrement détectées sur Java. Ironiquement, l'un des derniers correctifs avait même ouvert une vulnérabilité supplémentaire.


jeudi 14 février 2013

Des cellules souches devenues lymphocytes T pour combattre le cancer



Première mondiale : des scientifiques japonais sont parvenus à reprogrammer des cellules souches pluripotentes induites (CSPi) pour les transformer en lymphocytes T potentiellement capables de détruire des cellules tumorales. La première étape vers de nouvelles thérapies contre le cancer ?
L’idée d’utiliser le système immunitaire pour combattre les tumeurs n’a rien de nouveau. La preuve : la méthode est déjà appliquée contre certaines formes de la maladie, comme dans le cancer du rein. Cependant, l’immunothérapie reste marginale, car elle se heurte à des limites techniques.
Dans la pratique, les chercheurs prélèvent chez les patients des populations de lymphocytes T (LT), des cellules de l’immunité, capables de reconnaître spécifiquement les cellules tumorales. Ils les font croître avant de les réinjecter en quantités plus importantes pour mieux faire reculer la maladie. Du fait d’un faible nombre de LT récoltés au départ et de leur courte durée de vie, les traitements peinent à être pleinement efficaces. Mais la situation pourrait évoluer dans le bon sens : des scientifiques japonais du Riken Research Center for Allergy and Immunology viennent d’ouvrir une voie prometteuse dans l’amélioration des immunothérapies. Même s’il est encore beaucoup trop tôt pour crier victoire. 

Du lymphocyte au lymphocyte en passant par les CSPi
 
Qu’ont-ils fait de révolutionnaire ? La première étape a consisté à récupérer des lymphocytes T cytotoxiques reconnaissant spécifiquement l’antigène MART-1 porté par des cellules de mélanome (cancer de la peau). Ces LT, adultes, ont été ramenés à un état juvénile par l’exposition à des facteurs de transcription, ceux-là même utilisés en 2006 par Shinya Yamanaka, et qui lui ont valu le prix Nobel de médecine 2012.
Ce schéma reprend les différentes étapes clés de la différenciation cellulaire dans cette expérience. Les lymphocytes T cytotoxiques spécifiques à MART-1 (Human cytotoxic T cells specific for MART-1 antigen) présentent un récepteur (T cell receptor) particulier schématisé en vert. Après reprogrammation en CSPi (iPS cells), croissance puis différenciation, les nouveaux lymphocytes T présentent toujours le même récepteur.
Ce schéma reprend les différentes étapes clés de la différenciation cellulaire dans cette expérience. Les lymphocytes T cytotoxiques spécifiques à MART-1 (Human cytotoxic T cells specific for MART-1 antigen) présentent un récepteur (T cell receptor) particulier schématisé en vert. Après reprogrammation en CSPi (iPS cells), croissance puis différenciation, les nouveaux lymphocytes T présentent toujours le même récepteur. © Kawamoto et al., Cell Stem Cell
Ainsi, les chercheurs disposaient d’une population de cellules souches pluripotentes induites (CSPi), c’est-à-dire des cellules que l’on peut faire croître en masse et dont on peut diriger la maturation. Sous l’influence de facteurs cellulaires, ces CSPi ont été transformées une nouvelle fois en lymphocytes T. 

La question était de savoir si ce nouveau lot, après transformation, exprimait toujours à sa surface le récepteur à l’antigène MART-1, celui-là même qui lui permet de reconnaître puis d’éliminer les cellules de mélanome. Comme démontré dans la revue Cell Stem Cell, plus de 98 % de ces LT résultants présentent toujours le récepteur spécifique et produisent l’interféron gamma, une molécule anticancer. 

Un traitement contre le cancer… dans un futur lointain
 
Voilà l’occasion de produire en masse des cellules de l’immunité dirigées contre les cellules cancéreuses et de contourner les problèmes actuels de l’immunothérapie en créant des lymphocytes en très grand nombre et en leur conférant une durée de vie plus importante.
Mais l’espoir est à tempérer. Les scientifiques nippons ignorent encore si leurs nouvelles cellules peuvent effectivement détruire les tumeurs tout en épargnant les tissus sains, afin de développer une thérapie ciblée. Si l’avenir le montre, ils se disent optimistes et pensent pouvoir utiliser un tel traitement dans un futur pas si lointain. 

Pourtant, il reste de nombreuses étapes à valider avant d’en arriver là. D’une part, la question de la faisabilité d’un tel traitement à grande échelle à des coûts abordables se pose. Il est un peu tôt pour en parler. Ensuite, si les CSPi représentent probablement l’avenir de la médecine, leur impact sur la santé n’est pas encore bien défini. Il faut donc établir la balance bénéfices/risques de telles cellules au préalable avant de les autoriser chez l’être humain. De nombreux écueils à surmonter avant de bénéficier un jour de ces lymphocytes issus de CSPi.