Organisés tous les mois, les Data Tuesdays sont des événements permettant aux « data players » (l’ensemble des acteurs concernés par les problématiques liées aux données) de se rassembler pour échanger autour de sujets tels que le Big Data, l’Open Data ou la Data Visualization.
A l’occasion d’Expoviz (première exposition française sur la data visualization), Coopératique s’est rendu au Data Tuesday spécial DataViz du 19 juin 2012, au Campus des Cordeliers, dans le 6ème arrondissement de Paris. Datajournalistes, graphistes et designers de l’information s’y étaient réunis pour nous présenter 7 de leurs réalisations en mode «Pecha Kucha» (présenter oralement 20 images en restant 20 secondes par image). Nous allons vous présenter ces réalisations dans les billets qui suivent.
Dans un article de forbes.com, Glenn Pingul annonce que nos terminaux mobiles ont généré près de 600 pétaoctets de données par mois en 2011 (soit plus de 600 millions de gigaoctets), soit huit fois plus de données que tout l’Internet en 2000 ! Ce chiffre sera multiplié par 100 d’ici 2015.
A travers le monde, on compte plus d’utilisateurs de mobiles que d’utilisateurs de la banque, et même de l’électricité. Difficile donc de passer à côté du phénoménal torrent de données créé par nos mobiles. Les as du marketing ne s’y trompent pas et comptent bien faire parler ce flot de données riche d’informations au sujet de leurs (potentiels) clients. Continue reading Big Data et mobiles : un déluge de données sous-exploité
Le Big Data est réellement devenu une activité industrielle, sur laquelle les acteurs historiques de l’informatique tentent de se positionner. En témoigne la « Big Data Appliance » d’Oracle, présentée lors de l’OpenWorld 2011 (le premier forum sur le Global Open Source en Europe). Il s’agit d’une solution alliant une plateforme matérielle à un ensemble de logiciels afin d’acquérir, organiser et charger dans une base de données Oracle une multitude de données dans le but de les analyser.
Parmi les champs d’application possibles de cette solution, la santé arrive en bonne place. En effet, selon Andy Mendelsohn, Senior VP chez Oracle, la « Big Data Appliance » permettra, par l’intermédiaire de capteurs, de surveiller des patients à distance, en faisant remonter leurs données en continu. Si l’analyse révèle une anomalie, il sera alors possible d’intervenir en urgence.
Par rapport aux solutions Oracle déjà existantes, l’innovation vient de la quasi-simultanéité entre la récolte de données, leur analyse et les conclusions que l’on peut en tirer. Grâce à cette simultanéité, peut-être sera t-il possible demain de connaître à l’avance les patients les plus exposés à une maladie, afin de la prévenir plutôt que la guérir. On peut imaginer, par exemple, que les campagnes de vaccination seront alors beaucoup plus ciblées et moins aléatoires que ce que nous connaissons.
La récolte des données au sujet des patients a toujours existé, même avant l’ère du numérique. Chaque patient est sensé pouvoir accéder à son dossier médical, et tout ou partie de ses données de santé est d’ores et déjà enregistré dans des registres (auprès des hôpitaux, des médecins, des pharmacies, de la Sécurité Sociale, etc.). Ces données sont évidemment éloquentes en matière de suivi médical et peuvent donner de précieuses indications en cas d’intervention (quel est l’âge du patient ? A t-il déjà été opéré ? Est-il allergique ? Suit-il un traitement ? A-t-il une maladie chronique ? Etc.).
L’accès à l’historique d’un patient est pertinent pour lui prodiguer les meilleurs soins. Mais, au-delà de ces informations classiques, les structures de soin ont désormais accès à de nouvelles données issues principalement de la télé-médecine (vidéos de consultations en ligne, données de géolocalisation, signaux des capteurs liés aux maladies chroniques, etc.). La problématique du Big Data se pose donc bien au monde de la santé : que faire de toutes ces données et que peut-on leur faire dire ?
Aujourd’hui, les personnels de santé n’ont plus toujours les moyens de traiter les patients avec l’attention qui serait de mise. En raison de l’affluence dans les hôpitaux, les patients sont parfois auscultés bien trop vite par des médecins débordés. Il peut en résulter des erreurs de diagnostic menant à des complications, ou des omissions par les médecins de symptômes avant-coureurs d’une maladie. Dans ces deux cas, les patients sont amenés à revenir à l’hôpital et, parfois, dans des états plus sévères. La conséquence logique est la suivante : les salles d’attente ne se vident pas, les médecins et les personnels de santé sont de plus en plus débordés et le risque de commettre des négligences s’accroît. Un cercle vicieux se met ainsi en place.
Que vient faire le Big Data dans tout cela ? Selon le docteur Nicholas Morrissey, chirurgien au New York Presbyterian Hospital, il peut aider à limiter ce cercle vicieux grâce à la numérisation des données des patients et à leur analyse. Concrètement, Le Dr Morrissey travaille avec Microsoft afin que les ordinateurs soient capables de repérer et signaler instantanément des facteurs de risques chez les patients en « épluchant » l’ensemble de leurs données (tabagisme, antécédents, durée déjà passée à l’hôpital, etc.). En laissant le logiciel faire cette évaluation, les personnels de santé gagnent un temps précieux. Les diagnostics promettent aussi d’être plus fiables car des médecins pressés sont à même de manquer certains de facteurs.
Est-ce efficace ? Le docteur Morrissey l’affirme : depuis 2010, année à partir de laquelle cette technologie a été mise en œuvre dans son hôpital, le taux de formation de caillots sanguins potentiellement mortels a été réduit d’environ un tiers. Cependant, il souligne également qu’une étude plus approfondie de l’impact du logiciel est nécessaire pour le relier à cette baisse.
Dans un article daté du 29 mai 2012, le Webzine IT News nous apprend que le Big Data sera massivement sollicité durant les Jeux Olympiques de Londres. Comme on peut s’en douter, un grand nombre de données structurées ou non structurées peuvent être récoltées durant ces événements.
Pour le sport en lui-même, les caractéristiques de milliers d’athlètes en compétition pour des centaines d’épreuves vont pouvoir être recoupées avec d’autres données, telles que la vitesse du vent, la température à une heure précise, etc. afin de produire des analyses toujours plus fines de la performance.
Du côté commercial, la récolte et l’analyse de données telles que le nombre de spectateurs aux épreuves, ce qu’ils ont acheté et où, etc. vont permettre à la ville de Londres de déterminer si l’organisation des Jeux Olympiques a été un bon investissement.
En outre, l’analyse et le stockage en temps réel des flux d’informations vont permettre de mieux coordonner les transports (Transport for London va utiliser des données anonymes de géolocalisation émanant de téléphones mobiles pour suivre les mouvements de foule et anticiper les demandes de transports) ou permettront aux autorités d’assurer une meilleure sécurité en analysant les vidéos des caméras de surveillance.
De plus, les connaissances issues de l’ensemble de ces données permettront de comprendre ce qui a fonctionné ou pas pendant ces Jeux afin de ne pas reproduire d’erreur lors de prochains grands événements sportifs.
Comme le remarque Irfan Khan, auteur de l’article, le Big Data fera partie des grands champions de ces Jeux Olympiques (même si on ne le verra pas en première page des journaux) !
Aujourd’hui, l’usage d’Internet et des nouveaux moyens de communication génère une quantité de données impressionnante. Grâce, notamment, au développement du Cloud Computing, les particuliers et les entreprises créent et stockent continuellement de plus en plus de ressources de tailles et de natures variées. Face à cette réalité, on regroupe désormais sous le nom de Big Data (“déluge de données” en français) aussi bien ces quantités de données que les problématiques et les solutions concernant leur gestion et leur utilisation. Même si les progrès en matière de stockage permettent aujourd’hui de conserver l’exhaustivité de ces données, la question de leur intérêt et de l’utilisation qui pourrait en être faite se pose de plus en plus.
D’après IDC, l’information totale produite chaque année par les entreprises devrait connaitre une croissance annuelle de 67% de 2007 à 2011, passant de 75 exaoctets à 580 exaoctets (1 exaoctets = 1 milliard de gigaoctets) »
Ce que IDC appelle l’univers numérique, c’est-à-dire la quantité d’informations numériques créée ou répliquée annuellement, va être multipliée par 44 en 2020 par rapport à son niveau de 2009, pour atteindre 35 zettaoctets (1 zettaoctet = 1000 milliards de gigaoctets)
Et si nous réussissions à faire parler cette multitude de données ? Si nous parvenions à en tirer des connaissances exploitables ? C’est le défi que se lancent un grand nombre de sociétés informatiques (Microsoft, Dell, IBM ou Oracle pour ne citer qu’elles), par l’intermédiaire de leurs spécialistes (les experts de l’analyse des données) et le développement de solutions logicielles innovantes. Continue reading Les solutions de « Big Data » au service de notre santé