Affichage des articles dont le libellé est google. Afficher tous les articles
Affichage des articles dont le libellé est google. Afficher tous les articles

dimanche 3 mai 2009

Consommation de médias aux USA: étude Nielsen

L'américain moyen a visité 111 sites Internet et 2 554 pages en tout, et il est resté 56 secondes en moyenne sur une page, selon une étude de Nielsen.

Certains, comme Steve Rubell y voient la fin de l'hégémonie absolue du site Internet: les visiteurs ne font que passer.

jeudi 30 avril 2009

Jarvis: "Un journal doit se connecter à des réseaux"

L'avènement du web modifie la place des journaux. Jeff Jarvis l'explique dans son nouvel ouvrage, What would Google do?:

"Un journal, comme toute entreprise plus ou moins normale, doit se connecter à des réseaux, « faire ce qu’il sait faire le mieux et offrir des liens à tout le reste ». Un journal local, par exemple, n’a aucune raison de dépenser ses sous pour s’offrir sa propre critique de cinéma puisque la distribution est nationale « et que nous sommes tous critiques ».

Ils doivent se transformer en plateforme à laquelle les lecteurs s’adressent quand bon leur semble avec l’espoir d’y trouver les meilleures pistes plutôt qu’un contenu original. Plus qu’une simple fonctionnalité spécifique du web, « le lien change l’architecture fondamentale de la société de la même façon que les traverses d’acier et les rails ont changé la façon de gérer villes et nations. Google établit des liens. »"

Transnet

samedi 18 avril 2009

Le journalisme à l'ère du clic payant

Or, Google, par l’entremise de sa fonction “Google Analitics” cote la valeur publicitaire des pages web en fonction du nombre de visiteurs. Donc si on veut des commanditaires payants, il faut beaucoup de clics sur les pages. On peut, bien sûr, attirer des visiteurs en écrivant des articles intéressants et recherchés, mais on peut aussi en attirer, et peut-être plus facilement (en tout cas pour beaucoup moins cher) en payant un chroniqueur, souvent non-syndiqué, qui n’a pas peur de brasser. L’humain étant curieux, lorsqu’il y a une polémique sur un sujet, les visiteurs vont affluer vers le site en question. Si cette situation se répète souvent ou régulièrement, les annonceurs devront payer beaucoup plus cher leur publicité.

Alpha reporter

dimanche 10 juin 2007

Publicité: Comment Yahoo veut rattraper Google

(L'Express)
Devenir numéro 1 de l'e-publicité à la place de Google. C'est l'objectif de Yahoo avec sa nouvelle plateforme publicitaire Panama. Comment? En changeant les règles du jeu et en misant sur des marchés en pleine croissance comme la publicité sur mobiles.
Changer les règles du jeu pour gagner. C'est le méthode choisie par Yahoo avec sa nouvelle plateforme publicitaire Panama pour damer le pion au système Adwords de Google. Des règles du jeu plus "pertinentes" selon Yahoo puisqu'elles prennent en compte la "qualité" et non le prix payé. Le filiale française du portail présentait jeudi à Paris les avantages de sa plateforme lancée il y a quelques jours en Europe.
Concrètement, Panama permet de positionner un lien sponsorisé dans les résultats du moteur de recherche ou sur un site tiers en fonction d'un « indice de qualité » mesuré par un algorithme moulinant taux de clics, ciblage géographique et autres critères tenus secrets par Yahoo. Plus la qualité de l'annonce est élevée, mieux elle est classée, c'est-à-dire située en haut de la page de la requête contenant le mot-clé acheté par l'annonceur. Un nouveau critère qui tranche avec la méthode actuelle. Jusqu'à présent, la hiérarchisation des liens sponsorisés dépend du montant des enchères sur les mots-clés. Le plus offrant, et non le plus pertinent, obtient alors la meilleure place. Problème: le critère du mieux disant peut devenir contreproductif. Si des liens sponsorisés mènent à des sites qui ne correspondent pas à l'annonce, les internautes peuvent se détourner du moteur de recherche.

vendredi 8 juin 2007

La guerre des moteurs de recherche

source

Exhaustivité. Les moteurs ne référencent qu’une partie de l’information disponible sur le Web : elle provient plus souvent de ce que l’on appelle le “Web visible” par opposition au “Web profond” qui serait cent fois plus étendu.

Pertinence. Peu de gens se donnent la peine d’aller bien loin dans l’exploration des résultats fournis : autant donc que les premiers se révèlent satisfaisants. Or, c’est trop peu souvent le cas : encadrés de liens “sponsorisés”, ils sont eux-mêmes de plus en plus truffés de références commerciales, font apparaître des rapprochements surréalistes ou sont tout bonnement de mauvaise qualité. Certes, l’utilisateur a aussi sa responsabilité dans le succès de la recherche : à lui, en premier lieu, de savoir ce qu’il veut et de se prémunir contre l’illusion que le moteur lui apportera nécessairement, à partir d’un simple mot-clé, la meilleure des réponses sur un plateau. Et à lui, aussi, d’utiliser pleinement les outils qui lui sont proposés, en se servant par exemple des opérateurs de recherche ou des outils de recherche avancée.

Rappelons que c’est sur celui-ci et le concept du PageRank classant les sites en fonction des liens pointés vers eux, que Google a bâti une bonne part de sa réputation d’efficacité. Mais ils peuvent aussi, et c’est une piste qui semble tout aussi prometteuse, prendre une dimension vivante, en misant sur l’évaluation humaine des pages indexées et en se rapprochant de l’utilisateur. N’oublions pas que les fondateurs de Yahoo ont débuté leur entreprise avec cette idée toute simple qui consistait à mettre en ligne leurs sites favoris, puis ceux des utilisateurs.

Des solutions telles que Altavista, Excite, Lycos ou Voilà continuent de faire leurs preuves et d’évoluer. Mais parmi les nouveaux moteurs, le plus connu est peut être Exalead, dont la version grand public date de 2006 et qui se présente maintenant comme un concurrent sérieux à Google. Ses spécificités sont la suggestion de termes associés, la prévisualisation des sites et un fonctionnement collaboratif qui invite les utilisateurs à apporter leurs suggestions pour le développement du moteur. Microsoft tente de son côté de gagner des parts de marché via son outil Live search, qui propose notamment la création de macros à partir des opérateurs de recherche. Sans prétendre à l’exhaustivité, certains outils de moins grande taille mais originaux misent sur l’intelligence artificielle (ePrécis, en anglais), les communautés d’intérêt (Fooxx), la spécialisation dans un domaine de recherche (Omydir pour les ressources francophones, Scitopia pour les publications scientifiques) ou au contraire l’étendue du champ (Gigablast), la cartographie des résultats (Kartoo), la consultation d’experts (Allexperts) ou même la présence en ligne d’assistants à la recherche (Chacha). Les grands moteurs eux-même semblent avoir compris la nécessité d’innover et ont lancé des moteurs dits expérimentaux (Searchmash, Yahoo alpha...). Qui sortira gagnant de la guerre des moteurs ? L’internaute, espérons-le.