Twitter : veille, vidéo et curation

La bataille entre les deux géants du social media, Facebook et Twitter, continue de faire rage. Ces derniers mois, c’est Twitter qui occupe le terrain des innovations. Quelles sont-elles ? Quels bénéfices en tirer ? Quelle mutation plus profonde annoncent-elles ?

Nouvelle stratégie de recrutement ou simple optimisation face au flux de plus en plus important d’informations sur le réseau ? Force est de constater que Twitter étoffe la dimension « veille » de son offre. Le réseau propose en effet à ses utilisateurs d’envoyer des tweets par mail aux membres comme aux non-inscrits. Cette fonctionnalité se matérialise par l’apparition d’un bouton « Plus » à côté des boutons plus connus « Répondre », « Retweeter » et « Favoris ». Le mail généré est envoyé depuis le compte Twitter de l’expéditeur.

Au-delà de l’élargissement des points de contact qui s’opère avec cette nouvelle fonctionnalité, Twitter ne se limite plus au texte et mise désormais sur le visuel. Cette nouvelle orientation se traduit par une curation plus évidente des contenus de type image et vidéo, mais également par la transformation récente des profils. Dans cette démarche, les applications de photo et vidéo mobile ont eu, et conservent, un rôle important à l’instar de Vine, lancée fin janvier.

Vine : le tweet vidéo qui fait parler de lui

Vine est une application iPhone qui permet de réaliser des films de 6 secondes partageables sur le réseau social éponyme ainsi que sur Twitter (incubateur de la start-up à l’origine du projet). Une fois publiées, ces vidéos s’apparentent à des gifs animés : elles tournent en boucle. Cette application permet d’enrichir le tweet traditionnel et offre un nouvel éventail d’opportunités aux marques et aux médias. Pour optimiser son utilisation, il convient de respecter certaines règles. La longueur de la vidéo nécessite un travail de scénarisation en amont de la capture.

L’enregistrement, qui se déclenche au contact du doigt sur l’écran, n’est pas nécessairement continu, il est donc possible de travailler la mise en scène du film. Le son peut être utilisé mais il est préférable de l’éviter sans compter qu’il doit vous appartenir. Le format de Vine doit être pensé comme un format idéal de teasing ou comme un visuel de catalogue enrichi. Certaines marques comme Gap, Toyota ou encore Calvin Klein ont déjà testé le concept. Attention cependant, l’application n’est pas compatible avec Facebook. En effet, le réseau a préféré développer sa propre application vidéo disponible depuis quelques jours sur la version mobile de son site.

Un nouvel algorithme de recherche 

Autre nouveauté, Twitter vient de mettre en place un algorithme qui permet, lors d’une recherche,  de classer les tweets sur la page de résultats en fonction du score que le réseau leur attribue. Ce score dépend, entre autres, de l’engagement généré par le tweet et du nombre d’abonnés du compte émetteur. Le niveau de maturité du compte émetteur sera également important. En effet, plus le profil sera complet, plus il sera noté favorablement.

Ayant désormais atteint une taille suffisante et cherchant à monétiser cette audience, Twitter entend ainsi pousser les entreprises à utiliser les tweets sponsorisés qui bénéficieront d’un score plus élevé que la moyenne tout en facilitant la curation d’un point de vue « utilisateur ». Les plus petits acteurs risquent donc de souffrir de cette nouvelle mise à jour qui promet de réduire encore un peu plus leur visibilité.

A la recherche d’un business model efficace

Ce nouvel algorithme permet à Twitter de consolider son business model. Le réseau semble par ailleurs abandonner l’esprit « open source » qui le caractérisait pour se tourner vers une approche plus maîtrisée des partenariats possibles. Les innovations autour du réseau sont donc méticuleusement sélectionnées et jalousement  gardées. Vine en est la preuve, au même titre que la récente acquisition de Bluefin Labs, acteur traitant et analysant les données liées à la Social TV. En outre, cette acquisition – associée à l’investissement de Twitter sur les domaines de la curation et de la vidéo – renforce l’idée selon laquelle l’acteur chercherait à se positionner comme le réseau social de la télévision, ou plus particulièrement de l’écran compagnon.

Pour approfondir, découvrir notre formation  Bien utiliser Twitter et nos formations réseaux sociaux.

Big Data : le data scientist comme guide

La montée en puissance du Big Data dans les entreprises crée de nouveaux besoins et exacerbe la volonté de rationaliser les coûts et d’atteindre une forte efficacité opérationnelle. Le data scientist apparaît comme la cheville ouvrière de ces multiples défis.

La production de données par les utilisateurs entraîne, selon les estimations, un doublement du volume des données tous les 12 à 18 mois dans le monde. Issues de sources multiples (terminaux mobiles, téléviseurs connectés, lecteurs RFID…), ces données en deviennent ingérables avec les outils traditionnels de gestion de base de données. C’est le phénomène du Big Data. Parallèlement, des besoins de plus en plus saillants apparaissent dans les entreprises et les institutions : détection des fraudes (domaine de l’assurance), gestion de crise (défense), identification de nouveaux débouchés marketing et commerciaux, relation client poussée (analyse du taux d’attrition), génomique…

Un poste hybride 

Face à cette déferlante (2,5 trillions d’octets de données sont générés chaque jour), de nouvelles compétences, de nouveaux profils prennent de plus en plus de poids dans l’entreprise. C’est le cas du « data scientist », terme créé en 2008 par un ancien de Facebook et un ancien de LinkedIn.

« Le data scientist est un hybride entre un informaticien et un statisticien. Sa mission est d’introduire le big data au sein de l’entreprise, d’évangéliser. C’est un profil très complet qui doit allier intelligence émotionnelle, intuition et ouverture exacerbée face à la donnée », déclare Eric Mokemat, directeur technique d’Information Builders, éditeur de solutions de Business Intelligence et d’analytics.

Cette « ouverture exacerbée face à la donnée » le distingue du data miner ou du data analyst que nous connaissons. Car, au-delà de faire parler la masse de données pour en dégager les informations les plus pertinentes pour l’entreprise, un des principaux enjeux pour le data scientist est de travailler très en amont de l’analyse des données. « Les compétences du data scientist vont bien au-delà de l’analyse simple. Le data scientist doit être en mesure de définir la question posée, de penser les tests nécessaires à l’avancement de la réflexion et de décider de ce qui doit être comparé ou non », affirme Bertil Hatt, data scientist free lance.

Un chercheur d’or 

Comme on le voit, le profil du data scientist est très complet et riche. Le data scientist doit être capable de s’assurer de la provenance de l’information, de ce qu’elle représente et de ce qu’elle peut apporter à la gouvernance de l’entreprise. « C’est un chercheur d’or qui cherche à l’intérieur de l’entreprise mais aussi à l’extérieur, à la fois des données maîtrisées – issues des processus métier – mais aussi non-maîtrisées, issues des réseaux sociaux, du buzz… », complète Eric Mokemat (Information Builders).

Ses principales compétences sont la capacité à maîtriser la partie analytique (faire parler la donnée), la structurer et la mettre en valeur (aspect visualisation des données). Et, cerise sur le gâteau, « il doit être capable, par rapport à une question donnée, de trouver les données qui vont permettre de répondre à cette question, même si c’est contre-intuitif », ajoute Bertil Hatt.

De multiples compétences à maîtriser 

Actuellement, on estime que seules 100 personnes en France peuvent prétendre à ce titre de data scientist. « Ce profil requiert des compétences en mathématiques pour comprendre les algorithmes, en informatique pour comprendre les systèmes et des compétences métier pour comprendre la nature des informations figurant dans les bases », note de son côté Jean-Claude Muratore, directeur général de Turn, plate-forme de gestion de contenu et d’achat media.

Aux États-Unis, où la fonction prend de plus en plus d’ampleur, le secteur de la santé emploie beaucoup de data scientists. Le patient accumule en effet de plus en plus de données lors de son parcours au sein par exemple d’un établissement de santé. Pour un suivi médical pertinent et une rationalisation des coûts, ces données à la fois structurées et non-structurées, en temps réel et en différé, doivent être agrégées avec efficacité.

Internet des objets : l’impact sur les sites web

Les concepteurs de sites ont devant eux un nouveau paysage numérique dont les contours commencent à se dessiner. Il n’est pas trop tôt pour en prendre la mesure.

Internet des objets et sites WebLa grande majorité des sites Internet reposent encore sur le paradigme informatique traditionnel : ordinateur, écran, clavier, souris, interface utilisateur graphique. Ce dernier est en train d’être dépassé par l’Internet mobile et l’arrivée des smartphones et des tablettes. A plus long terme, il le sera par l’Internet des Objets et les Objets Communicants et Intelligents.

Une informatique “tangible”
L’ordinateur traditionnel n’est plus le véhicule exclusif de l’informatique. Devenu portable, il évolue, à travers les tablettes et les smartphones, vers un petit objet familier et d’usage quotidien analogue au stylo et au livre. La miniaturisation et le développement du sans fil vont continuer à favoriser l’apparition d’objets numériques, inspirés d’objets traditionnels ou complètement nouveaux qui n’auront plus aucun rapport avec le look classique d’un ordinateur.

Une informatique “perceptive”
L’ordinateur était sourd et aveugle. Avec la révolution des capteurs, un objet numérique peut percevoir son environnement, non seulement sa situation (géolocalisation) mais aussi appréhender de manière extrêmement fine son environnement physique (vision, ouïe, odorat, toucher…). La conséquence : une révolution des interfaces est en marche, qui permettra d’interagir de manière beaucoup plus conviviale avec les nouveaux objets numériques (surfaces tactiles multipoints), y compris à distance (Wiimote, Kinect).

Une informatique “musculaire”
Avec les progrès des actionneurs et de la robotique, les nouveaux objets numériques sont capables d’agir sur le monde physique, bien au-delà des seuls écrans, par exemple en actionnant divers mécanismes ou en pilotant le réglage de la lumière et de la température dans une maison. Par rapport à cet environnement très riche, l’interaction avec un écran classique apparaît bien limitée et peu attractive.

Tout comme les blogs puis les réseaux sociaux ont gagné en importance par rapport aux sites web classiques, il est vraisemblable que « les objets communicants et intelligents » et « les objets à capacité augmentée » se développeront suffisamment massivement dans les prochaines années pour devenir des médias originaux concurrents des sites traditionnels. Les concepteurs de sites web ont donc intérêt à développer de nouvelles compétences, notamment sur les nouvelles modalités « d’expérience utilisateur », le “design des interactions” et les interactions homme / machine.

Les tablettes, un rôle de précurseurs
Dès à présent, les tablettes trouvent une partie de leur succès dans les nouvelles attitudes corporelles qu’elles permettent. Au lieu de la position assise, dans une attitude de travail, elles permettent une utilisation dans les positions les plus variées, et pour des utilisations ludiques, ce qui entraîne un ressenti différent d’un ordinateur classique.

Les modalités d’interaction changent aussi avec la présence, dans les tablettes, d’accéléromètres permettant, en basculant l’écran, de déclencher une action. Là encore, le créateur de site va devoir élargir ses compétences traditionnelles de graphiste et de maquettiste et passer d’une  préoccupation ergonomique purement visuelle à un travail d’ergonome plus global, impliquant une réflexion sur la relation entre le contenu qu’il propose, les possibilités de manipulation de l’objet et les attitudes corporelles liées à son utilisation.

Le design au coeur des objets « augmentés »
Dans l’avenir, des objets « augmentés », c’est-à-dire auxquels on aura ajouté des capacités de communication et d’intelligence, ne seront pas seulement des « objets-écrans » (constitués majoritairement autour d’un écran comme les tablettes), mais aussi des objets très variés dont l’écran ne sera pas forcément l’interface principale mais peut-être seulement un accessoire secondaire. Dès lors, pour ces objets-médias d’un nouveau genre, leur forme, leur esthétique, leur maniabilité et leur sensorialité joueront un rôle décisif dans leur succès. De graphistes, les créateurs de ces nouveaux objets-média devront donc devenir aussi d’authentiques designers.

Cet article, écrit par François Denieul, économiste et politologue devenu technologue et designer, a été publié dans la publication Stratégie Internet en septembre 2011, suite à la conférence Smart World du 28 juin 2011.

Intégrer l’ergonomie à son projet de conception

Malgré des dispositifs interactifs et un environnement d’usage en constante évolution, l’utilisateur doit rester au centre des problématiques de conception. Comment l’intégrer effi cacement dans ses projets ? L’analyse de Daphné Repain,  responsable des missions de conseil en ergonomie chez CCM Benchmark.

Les équipes de projets de conception très souvent pluridisciplinaires (communication, marketing, infographie, informatique) n’intègrent pas toujours l’utilisateur final. Or, une interface inadaptée ou ne répondant pas aux caractéristiques, aux besoins et à l’activité déployée par l’utilisateur final aura de fortes chances de ne pas être utilisée.

La démarche de COU (conception orientée utilisateur) permet d’intégrer de façon itérative les besoins, caractéristiques et attentes des utilisateurs tout au long du processus de conception grâce à une démarche d’intervention en ergonomie. Ce processus de conception itératif se décompose en trois phases : analyse, conception et évaluation.

La phase d’analyse pour comprendre comment fonctionne l’utilisateur

Durant la phase d’analyse, l’intervention de l’ergonome repose sur la compréhension du point de vue des futurs utilisateurs ou des utilisateurs actuels, sur l’analyse de leur activité (structure mentale, physique et organisationnelle), de la tâche réelle des utilisateurs, de l’existant et du contexte d’utilisation. L’ergonome permet de définir clairement les besoins et les attentes des utilisateurs. Pour cela, il s’appuie principalement sur des enquêtes qualitatives.

Les entretiens individuels permettent de recueillir des informations quant aux besoins, aux attentes des utilisateurs vis-à-vis des fonctionnalités du service, tandis que les entretiens collectifs (focus groupe), permettent de recueillir l’opinion des utilisateurs sur le produit ou concept. Dans cette phase d’analyse, l’ergonome peut également modéliser la tâche. Pour cela, il réalisera de manière complémentaire des entretiens individuels (attentes, besoins, fonctionnalités) et des observations directes de l’activité des utilisateurs afin de modéliser la tâche. Par exemple, si c’est un outil métier, cela permettra de prendre en compte les caractéristiques liées à cette activité (les différentes tâches, l’organisation, les outils, les
processus mentaux…).

La phase de conception pour organiser les contenus

Lors de la phase de conception, l’ergonome met en place un savoir-faire et des méthodes pour fournir des spécifications en termes d’architecture de l’information, d’organisation et de hiérarchisation des contenus. L’utilisation de la méthode des personas consiste en une synthèse des données relatives aux utilisateurs cibles. Il en découle des archétypes d’utilisateurs envers lesquels l’équipe projet peut se référer tout au long du projet pour orienter et discuter des choix de conception.

L’ergonome peut également mettre en place la méthode du tri de carte pour construire l’architecture de l’information (arborescence, organisation des contenus, terminologie). Cette phase de projet de conception permet également à l’ergonome d’évaluer itérativement les maquettes et prototypes en vue de fournir des perspectives d’amélioration.

La phase d’évaluation pour mesurer l’utilisabilité de l’interface

En phase d’évaluation, l’ergonome utilise des méthodes permettant de mesurer l’utilisabilité de l’interface tout au long du projet de conception, que cela soit sur maquette statique, dynamique ou sur prototype. Il existe deux types de méthodes :
– sans utilisateur (audit ergonomique) : l’ergonome se réfère à son expertise, ses connaissances et à une grille de critères d’évaluation ergonomique pour identifi er les forces et faiblesses du dispositif ;
– avec utilisateurs (test utilisateur) : ce type de méthode consiste à observer comment est utilisé l’outil par les utilisateurs et d’identifier les problèmes rencontrés par ces derniers.

Cette méthode permet de mesurer l’efficacité du dispositif (l’utilisateur a-t-il atteint ses objectifs ?), l’efficience (comment l’utilisateur atteint-il ses objectifs ?) et la satisfaction utilisateur (le système est-il agréable à utiliser ?). Les résultats de ces méthodes fournissent des recommandations et spécifications à intégrer à l’interface.

Pour en savoir plus : découvrez le pôle Ergonomie de CCM Benchmark

Pinterest : vraie tendance ou juste tendance ?


Après avoir conquis les Américains, Pinterest arrive en France. Ses atouts sont multiples par rapport à Twitter et Facebook. Mais comment en tirer profit au mieux ?

pinterest

 

Pinterest est un service de curation visuelle. Tout comme Delicious, Evernote ou Scoop-it avant lui, il s’inscrit dans une tendance de fond consistant à gérer de façon intelligente les contenus auxquels les internautes sont soumis quotidiennement. Ce qui assure le succès de Pinterest, c’est aussi que les internautes sont beaucoup plus sensibles aux images qu’au texte (plus rapides à analyser, plus agréables à regarder). Enfin, Pinterest fonctionne beaucoup par communautés verticales, ce qui est un atout fort en termes d’intérêt et de ciblage.

Depuis mai dernier, le service connait une croissance exponentielle ininterrompue. Il arrive en France depuis le début d’année mais aux Etats-Unis et au Royaume-Uni, cela fait longtemps qu’il a décollé. En décembre 2011, il avait déjà rassemblé 10 millions de membres (un record de rapidité pour une structure indépendante). Les chiffres les plus intéressants sont certainement les 2 millions d’usagers actifs au quotidien et le temps passé (72 mn en moyenne), supérieur à celui de Facebook (45 mn).

Du lèche-vitrine digital

Tout le monde ne va cependant pas utiliser Pinterest. En réalité, il y a des outils différents pour des usages différents mais, il sera sans doute celui utilisé par le grand public qui souhaite surtout se souvenir des jolies choses qu’il a vues sur le Web. Pinterest est une manière de faire du lèche-vitrine digital et de se souvenir de ce que l’on a vu. Attention, il est aussi important de comprendre que le taux de pénétration et le temps passé des médias sociaux est déjà à son maximum, cela implique que les consommateurs qui passeront du temps sur Pinterest réduiront leur usages d’autres supports qu’ils soient digitaux ou pas. Les journées ne font que 24 heures pour tout le monde mais, à la différence de Facebook, Pinterest est vraiment utile au quotidien.

De nombreuses opportunités pour les marques

Pour les marques il y a donc de nombreux avantages à s’intéresser à Pinterest. A court terme, l’intérêt peut être « RP » : faire un effet d’annonce pour montrer la modernité de la marque comme l’a fait Easyjet France et d’autres depuis. Mais l’intérêt de Pinterest est de générer beaucoup de trafic (plus que Linkedin, Youtube et Google+ en cumulé) avec un très bon taux de viralité.

– Promouvoir un style de vie. A travers sa présence et ses « boards », on peut montrer la richesse d’une marque, son univers global… Parmi les 150 marques déjà présentes, on retrouve General Electric qui n’est pas la marque la plus visuelle mais qui promeut les sujets qui l’inspirent pour faire évoluer le monde.

– Promouvoir un style de vie. A travers sa présence et ses « boards », on peut montrer la richesse d’une marque, son univers global… Parmi les 150 marques déjà présentes, on retrouve General Electric qui n’est pas la marque la plus visuelle mais qui promeut les sujets qui l’inspirent pour faire évoluer le monde.

– Augmenter les ventes. Bien sûr, c’est un axe intéressant à travailler puisqu’il s’agit d’avoir un R.O.I. court terme et fi nancier mais ce n’est pas l’intérêt principal du site. Si une marque sait être intéressante sur ce réseau, les personnes vont cliquer sur ses articles commerciaux et pourquoi pas acheter. Le site ideeli.com a de très bons résultats en l’espèce (+446 % de visites et des ventes multipliées par cinq). A noter qu’ils sont aussi très impliqués avec leur « followers ».

– Obtenir des créations des internautes. Pinterest est le temple du DIY (« Do it yourself »). Une marque pourra donc demander aux personnes de réaliser des créations ou tout simplement de mettre en avant des images d’objets qu’ils désireraient voir devenir réalité.

– Organiser des concours. De la même manière, c’est un élément court terme et très tactique mais il est possible de demander aux internautes de « pinner » des images de votre site par exemple et de mettre en place un concours autour de cela.

Grégory Pouy

Après avoir monté et dirigé le département Médias Sociaux chez Nurun, Grégory Pouy est aujourd’hui consultant indépendant, aidant les marques à comprendre et intégrer le digital. Formateur depuis plusieurs années pour CCM Benchmark, Grégory est également professeur vacataire à Dauphine, Hetic et intervient à l’Essec.

L’Internet payant en 10 points

Contenus les plus consommés, modèles économiques, services proposés, stratégies multi-écrans… Résumé de la conférence Internet Payant du 20 mars dernier en 10 points clés.

1. Un marché aujourd’hui mature
Les contenus et services payants les plus prisés en 2011 ont été la musique en téléchargement (54%), la VOD (28%) et les jeux en ligne (24%). Ceux qui ont connu les plus grosses évolutions en 2011 ont été les livres numériques, les jeux en ligne et les réseaux sociaux. Les plus grosses baisses portent sur la météo, les sonneries, les logos.

2. Faire tester pour faire basculer
Les facteurs incitatifs les plus efficaces pour faire basculer vers le payant : les offres d’essai gratuit ou de test, et le fait qu’il existe des offres d’abonnement illimité « full package ».

3. La qualité se paie
Pour un service de qualité, un prix trop bas peut susciter la méfiance des acheteurs.

4. La recommandation n’opère pas partout
L’effet viral et social basé sur la recommandation des acheteurs peut trouver ses limites quand il s’agit de services de rencontre ou de coaching minceur par exemple. Les utilisateurs de ces services ne sont en effet que peu enclins à communiquer sur ce point.

5. L’ajout de services n’est utile que s’ils collent fortement à l’offre de base
L’ajout de services au contenu payant (dans le cadre d’une offre premium par exemple) doit être bien proportionné. Il faut que ces services soient le plus proche possible du contenu payant initial car une dispersion de ces services trop forte met en danger la viabilité de l’offre. Cela étant, la présence de services minimum (de type « archives ») est attendue par les clients, même s’ils ne sont pas forcément utilisés.

6. Viser l’homogénéité et la simplicité
Site Internet, mobile, tablettes… En France, il faut viser l’homogénéité de l’offre en termes de contenu gratuit proposé et de tarifs, quel que soit l’écran. Il faut également viser le guichet unique : un même compte, un même abonnement, un seul paiement.

7. Personnalisation : une attente forte
L’appropriation des terminaux mobiles par les clients et la très forte substitution aux terminaux fixes (20 à 30%) entraînent une attente soutenue en termes de personnalisation des contenus payants, tant au niveau de l’ergonomie que des fonctionnalités proposées (il ne faut pas faire que de la simple transposition de données).

8. Des signes de reconnaissance
Les moyens de montrer à l’abonné qu’il est abonné sont multiples : newletters dédiées, alertes, codes couleur, pas ou peu de pub, marqueurs identitaires forts (édito, analyses, grand reportages..). Ils sont très importants pour justifier la tacite reconduction de l’abonnement payant.

9. Les acheteurs à l’acte difficiles à faire basculer
Un acheteur à l’acte reste le plus souvent un acheteur à l’acte, difficile à convertir en abonné.

10. La qualité partout, tout le temps
Pour convertir un visiteur en acheteur, les contenus gratuits doivent être d’aussi bonne qualité que les contenus payants (le contenu gratuit ne doit jamais être déprécié).

En résumé, pour réussir un modèle payant, il est préférable d’avoir de l’audience, une marque forte et des parcours clients ultra-simples; mais aussi une offre simple et clairement définie au niveau du produit comme de la distinction entre ce qui est gratuit et payant.

Réussir la promotion de ses applications mobiles

Le succès d’une application mobile dépend beaucoup de la manière dont son plan de promotion a été mis au point. Cette étape est très souvent négligée, d’où des performances parfois décevantes.

Trop souvent, l’intégralité du budget de l’application mobile est dépensée dans la conception et le développement de celle-ci. Or, il est indispensable de réserver dès la phase de développement de son application environ 30 à 50 % de son budget au plan de promotion, que ce soit en sortie de cash ou en jours/homme. Avec bientôt un million d’applications disponibles sur les stores (App-Store, Android Market…), l’enjeu pour être téléchargé est d’être bien positionné, au moins ponctuellement, dans les classements des “stores”. Pour réussir cette percée dans les classements, la clé consiste à mettre en place un maximum de leviers pour réaliser de puissantes actions de communication simultanées.

■ Comprendre les algorithmes des stores

Pour réussir à être bien classé, il faut d’abord comprendre la manière dont fonctionnent les algorithmes des “stores”. Il existe naturellement des différences substantielles entre les algorithmes d’Apple et d’Android. Néanmoins, tous deux se basent sur des éléments ayant des points communs. Seules les pondérations des variables diffèrent. Le nombre de téléchargements au cours des dernières 24 heures est déjà un indicateur très important, surtout chez Apple d’ailleurs. Ensuite viennent d’autres variables comme le nombre d’évaluations, les notes des utilisateurs et depuis peu le taux de fidélité aux applications.

■ Privilégier les leviers d’autopromotion et le community management

Pour faire la promotion de son application, les meilleurs leviers en termes de ROI restent les leviers d’autopromotion : newsletters, notifications push sur des applications déjà existantes, site Internet… Sur ces leviers, les taux de transformation sont bien supérieurs aux autres leviers. Les cibles connaissent déjà l’éditeur de l’application, et si elles sont déjà utilisatrices du service sur Internet, le transfert vers le mobile est facilité. Le community management est le second levier à privilégier, mais c’est le plus chronophage. Il s’agit dans un premier temps d’identifier les 15 ou 20 blogs les plus influents suivant son secteur ou en fonction de l’OS sur lequel l’application est déployée. Il faut ensuite prendre contact avec l’ensemble de ces blogs ou influenceurs pour leur présenter en amont le projet, leur demander conseil dans l’espoir que le jour du lancement de l’application un billet annonce ce dernier. Les lecteurs de la blogosphère téléchargent énormément les applications, ce qui peut avoir un impact significatif sur le classement de l’application, du moins dans un premier temps.

Nombre-applications-disponibles-Android-Market-et-iPhone-AppStore

Pour en savoir plus, venez suivre notre formation Réussir la promotion de ses applications mobiles.

E-santé : la montée en puissance du patient expert

S’inspirant du modèle de l’américain PatientsLikeMe, les réseaux sociaux de patients se développent en France. La relation entre professionnels de santé et malades prend une nouvelle dimension.

La création de communautés de “malades” sur Internet, via les forums spécialisés, ne date pas d’hier. Ce qui est plus récent est l’apparition de sites proposant à ces patients, outre la participation à une communauté, des fonctionnalités “sociales”, des outils de suivi de leur pathologie mais aussi de formation.

■ La référence PatientsLikeMe

Aux Etats-Unis, le pionnier PatientsLikeMe propose depuis 2005 aux malades de renseigner un profil enrichi où figurent leur état de santé, leurs symptômes, leurs traitements et les effets qu’ils observent… Cette masse d’informations permet au site de fournir des statistiques à ses membres qui, dans certains cas, peuvent leur permettre, par exemple, d’adapter les dosages de leur traitement en fonction de ce qu’ils observent comme réactions chez eux. En ce sens, le site contribue à rendre ses membres davantage acteurs de leur santé.

■ L’émergence en France de sites similaires
En France, le site Carenity se lance depuis la mi- 2011 sur un modèle approchant. Fort de 5 000 membres, il ambitionne de rassembler 60 000 membres d’ici 3 ans en Europe. Sa raison d’être est, là aussi, de contribuer à une meilleure responsabilisation du patient et de lui fournir des outils de suivi de sa pathologie. Pour se financer, Carenity propose aux laboratoires pharmaceutiques et acteurs de la santé des études marketing et “environnementales” pour mieux comprendre les attentes et usages des patients. Autre voix de monétisation : l’animation de communautés pour le compte de tiers. Le site propose ainsi des communautés de patients clés en mains (cobrandées ou en marque blanche). Lancé en France fin 2011, Bepatient.fr propose, lui, des services tournant autour des réseaux sociaux, du carnet de santé mobile et partagé, de la télésanté (télé-monitoring et coaching-santé), des échanges entre patients et professionnels de santé, et de la formation à l’accompagnement et à l’éducation thérapeutique.

De formidables enjeux

Pour les professionnels de santé, ces nouvelles plates-formes représentent une formidable opportunité mais aussi un véritable défi. “Les laboratoires fonctionnent dans leur organisation promotionnelle à plus de 80 % avec de la visite médicale. Ils ne sont pas encore passés à l’ère digitale. Alors que pendant ce temps les patients ont envahi le net, les forums, les associations… Il y a donc un très gros décalage entre les patients, les praticiens, l’hôpital et les industriels. Or, les patients ont un “reste à payer” qui ne cessera de croître, et leur niveau d’information, via les réseaux des autres patients, l’entourage… les amènera à discuter, voire à remettre en cause les orientations ou parcours de soins qui leur seront proposés ! C’est cela le vrai défi de l’e-santé du côté du patient : l’aider à acquérir son autonomie”, prévient Claude Tran Thiet, P-DG d’Imagence.

■ La timide réponse des professionnels de santé

Certains laboratoires commencent à prendre la mesure du phénomène. Expanscience a ainsi développé une collaboration privilégiée avec l’AFLAR (Association Française de Lutte Anti- Rhumatismale), association représentant les intérêts des patients souffrant d’affections ostéoarticulaires en France, dont l’arthrose. L’AFLAR a ainsi repris sur son site certains contenus publiés par le site Arthrolink, propriété des Laboratoires Expanscience. A l’inverse, le site Arthrolink a été relu par le board d’experts de l’AFLAR, ce qui lui a permis d’afficher par la suite sur sa partie “patients” la mention “site recommandé par l’AFLAR”. De son côté, la Fondation Roche a lancé le site “Voix des Patients” dont l’ambition est de faire vivre, connaître et reconnaître la parole des patients. Un comité éditorial sélectionne l’actualité et les
contributions des internautes et les organise en sujets. La Fondation Novartis, elle, ouvre régulièrement les colonnes de son site “Prochedemalade.com” à des membres d’associations de patients et / ou d’aidants.

Consommation automobile : place et impact d’Internet

Si la vente 100 % web d’automobiles sur Internet peine à décoller, Internet est devenu un réflexe pour préparer son achat. Du coup, les attentes des consommateurs par rapport aux concessions ont fortement évolué en 10 ans.

Les ventes de véhicules neufs sur Internet ne décollent pas. A l’exception des acomptes versés en ligne sur les quelques sites des mandataires (en général 10 % maximum de la valeur du véhicule), les ventes automobiles se dénouent toujours offline. Les constructeurs n’ont par ailleurs toujours pas franchi le pas de la vente en ligne. Seules quelques opérations exceptionnelles de déstockage sont réalisées sur des sites de ventes privées. En 2011, environ 50 000 véhicules neufs (VN) devraient être écoulés sur le marché français via Internet, soit un peu moins de 4 % des immatriculations de VN pour particuliers.

■  Un automobiliste sur deux se dit pourtant prêt à acheter un véhicule sur Internet

 Selon l’étude CCM Benchmark “Consommation automobile”, l’achat d’un véhicule neuf sur Internet est envisageable pour 53 % des internautes automobilistes. Et pour un tiers d’entre eux, il n’y aurait aucun frein à l’achat en ligne d’un véhicule. La clientèle qui envisage l’achat full web est encore assez typée : plutôt masculine, jeune, CSP+ et urbaine.

C’est en fait le profil type des acheteurs en ligne les plus matures pour qui acheter sur Internet est devenu un réflexe, quelque soit le produit ou le service concerné. L’appétence est également plus forte que la moyenne pour les gros rouleurs (plus de 30 000 km par an). Une fréquence élevée de renouvellement de véhicule fait diminuer le stress de l’achat d’un véhicule mais aussi le plaisir lié à l’acte d’achat. Dans ce type de consommation, le potentiel d’Internet est particulièrement élevé.

■ Internet pour trouver le meilleur prix et être plus autonome

 Dans l’esprit du consommateur, Internet est généralement synonyme de bonnes affaires. C’est également le cas pour l’automobile où un internaute sur deux préférerait passer par Internet pour accéder à de meilleurs prix. C’est particulièrement vrai pour les CSP- qui sont encore plus que la moyenne à la recherche du « bon plan » grâce à Internet. Pour les seniors, le confort de l’achat en ligne entre aussi beaucoup plus en ligne de compte. Internet est également un moyen pour passer plus de temps à mieux préparer son achat, choisir ses options, etc.

L’expérience en concession bousculée par des consommateurs surinformés

Avec Internet, les consommateurs viennent en concession avec beaucoup plus d’informations en mains, ce qui augmente leur niveau d’exigence quant à la qualité des conseils et informations délivrées par les vendeurs. Ainsi, la moitié des consommateurs estiment s’y connaître aussi bien que les vendeurs. Mais le rôle des concessions n’est fondamentalement pas remis en question. L’achat d’une voiture reste très impliquant, exigeant encore très souvent la nécessité d’essayer le produit.

C’est aussi un moment rare dans une vie où la visite de la concession participe à l’enrichissement de l’immatériel de consommation. Les constructeurs doivent ainsi poursuivre leurs efforts de montée en compétence de la force commerciale tout en multipliant les outils interactifs en concession où les attentes des consommateurs sont fortes. L’enjeu majeur pour les marques consiste donc à mieux « digitaliser la théâtralisation » de leur offre en point de vente.

Les-accessoires-automobiles-les-plus-achetes-en-ligne