Skip to main contentdfsdf

Antoine CHOTARD's List: Analyse sémantique / textmining

  • Feb 26, 09

    "Jusqu'à présent, c'est l'utilisateur qui devait solliciter la machine. Bientôt ce sera l'inverse : c'est l'ordinateur qui viendra vers vous pour interagir", explique à L'Atelier Frédéric Kaplan. Le chercheur au laboratoire Craft de Lausanne sait de quoi il parle. Après le WizKid, il a co-développé QB1, un ordinateur personnel robotisé qui identifie ses interlocuteurs et interagit avec eux par le geste. Le dispositif n'embarque en effet pas de clavier ni de souris mais des caméras 3D. Celles-ci utilisent des systèmes d'infrarouge pulsé qui identifient les contours d'une ou plusieurs personnes. Elles sont associées à des technologies développées en robotique et qui permettent à la machine de comprendre l'espace autour d'ell

  • Mar 04, 09

    Les contenus multimédias font partie intégrante du paysage Internet. Pourtant, les moteurs de recherche classiques, comme Google, Yahoo ou MSN, continuent à uniquement utiliser les mots pour construire leurs systèmes et indexer les sites. Ce, même dans le cas de contenus qui ne sont pas des textes : ces éléments sont alors identifiés d'après les termes qui leur sont associés. SAPIR, le projet de moteur de recherche développé par l'institut d'informatique allemand Max Planck, vise à résoudre ce paradoxe. Le prototype, présenté au CeBIT 2009, étend cette recherche dans les textes et les métadonnées jusqu'au cœur des contenus multimédias eux-mêmes.

    Au lieu de chercher des informations textuelles, le moteur utilise la structure même des données de requêtage. Cela signifie que l'utilisateur définit ce qu'il cherche, en proposant une "image", une ébauche de ce qu'il veut retrouver. Cela peut être une photographie qu'il prend avec son téléphone portable, ou encore une mélodie dont il chantonne l'air. À partir de cette requête, le logiciel identifie les similitudes entre les contenus reçus et les fichiers indexés.

    Le moteur de recherche s'appuie donc sur un réseau de pair à pair (P2P). Le recours à cette structure dispersée permet de sauvegarder l'indexation de manière décentralisée. Ce qui rend le processus de recherche plus flexible, plus stable, mais aussi plus apte à se développer et à monter en charge. Cette architecture permet d'intégrer les téléphones portables sur le réseau.

  • Mar 19, 09

    Stephen Wolfram is building something new -- and it is really impressive and significant. In fact it may be as important for the Web (and the world) as Google, but for a different purpose. It's not a "Google killer" -- it does something different. It's an "answer engine" rather than a search engine.

    Stephen was kind enough to spend two hours with me last week to demo his new online service -- Wolfram Alpha (scheduled to open in May). In the course of our conversation we took a close look at Wolfram Alpha's capabilities, discussed where it might go, and what it means for the Web, and even the Semantic Web.

    Stephen has not released many details of his project publicly yet, so I will respect that and not give a visual description of exactly what I saw. However, he has revealed it a bit in a recent article, and so below I will give my reactions to what I saw and what I think it means. And from that you should be able to get at least some idea of the power of this new system.

  • Mar 25, 09

    Créer des résumés de pages web en appliquant des techniques de contextualisation de l'information pourrait aider les internautes à mieux choisir les sites dans le flux remonté par les moteurs de recherches. La sémantique au service de la précisionJ'aurai tendance à miser sur des outils intelligents installés dans les ordinateurs des utilisateurs" précise-t-il. L'utilisation de la sémantique dans les moteurs de recherche n'est pas nouvelle, d'autres projets sont à l'étude comme Powerset ou Edelweiss de l'Inria.

  • Apr 20, 09

    En mélangeant projet artistique et techniques scientifiques, Caméléon analyse comment les personnes communiquent les émotions. Une solution pour améliorer l'interaction entre les personnes dans les mondes réels et virtuels.

  • May 06, 09

    Wolfram alpha st actuellement testé en phase bêta par un groupe de "happy fews" et il se murmure que le résultat, à mi-chemin entre Wikipedia et les Onebox de Google, serait très intéressant. Lancement d'ici quelques semaines normalement. Une vidéo (voir ci-dessous) nous en montre les principales fonctionnalités (même si les copies d'écran sur la vidéo sont assez difficiles à déchiffrer...) :



    - Blekko, dont on ne sait encore que peu de choses (si ce n'est qu'il est basé sur un datacenter de 200 serveurs et que le projet est initié par Rich Skrenta, créateur de l'un des premiers virus et co-fondateur de Dmoz et de Topix), devrait, pour sa part, être disponible au mois de juillet. Un projet qu'on attend avec impatience...
    - http://www.wolframalpha.com/
    - http://www.blekko.com/

  • May 25, 09

    Quoi de plus anodin a priori que des vieilles cartes ? En publiant des plans historiques de Tokyo et d'Osaka datant de l'époque des shoguns Tokugawa (1606-1868), Google Earth ne savait pas qu'il allait enfreindre un tabou. Le moteur de recherche est l'objet depuis des semaines d'une enquête du ministère de la justice en raison des préjudices causés par la localisation sur ces cartes de quartiers habités par des franges de la société autrefois discriminées, où vivent à présent certains de leurs descendants.

    La discrimination a été abolie en 1871, mais les préjudices à l'encontre de ces catégories sociales - que rien ne distingue des autres Japonais sinon leur lieu de naissance ou de résidence - sont ancrés dans les mentalités. Grâce à Google, il est désormais aisé de situer les quartiers des "burakumin" ("habitants des hameaux"). Officiellement, ils sont 1,5 million - sans doute le double. Une partie vit encore sur 4 000 sites à travers l'archipel, dont les noms ont été souvent changés, mais qui restent dépositaires d'une obscure différence.

    Les "eta" ("êtres souillés"), en raison des métiers qu'ils exerçaient (tanneur, boucher, équarrisseur) condamnés par le bouddhisme, et les "hinin" ("non-humains"), frange interlope des basses classes (prostituées, mendiants, déchus, saltimbanques), étaient cantonnés dans des quartiers spéciaux. Lorsque la discrimination fut abolie, ils y demeurèrent, bientôt rejoints par la masse des indigents émigrant des campagnes vers les villes. Et les préjudices ancestraux s'étendirent à cette pauvreté indifférenciée.

    SECRETS DE FAMILLE

    On ne peut "repérer" un "habitant des hameaux" que par son lieu de naissance. Des listes de localisation des anciens "ghettos" circulent clandestinement dans les services des ressources humaines des entreprises, témoignant de tenaces préjugés. Il suffit désormais d'un clic pour voir que tel quartier était autrefois un ghetto et de superposer un nouveau plan à l'ancien pour le localiser.

    La reproduction d'anciennes cartes n'est pas interdite au Japon,

  • May 27, 09

    Le web 2 n’est pas fini, mais il lui manque quelque chose : le sens
    Donner du sens pour oublier le “search”
    ette phrase, c’est la vision sur laquelle se base la création de Pearltrees. Patrice Lamothe, CEO de la société, nous explique en vidéo ses convictions sur la nouvelle donne possible concernant l’organisation des médias numériques, notamment via la recommandation et l’organisation du web par des logiques humaines sous forme de “cartes”. Ce qu’appelle Patrice Lamothe “la reconnaissance de la subjectivité”, en organisant son web et en guidant les autres utilisateurs.

  • May 27, 09

    Pearltrees est une solution novatrice pensée et développée par un groupe de passionnés voulant apporter une dimension nouvelle à l'exploration du web et au traitement de l'information qui y circule. Après une période de création de contenu par ceux qu'ils qualifient de "web creators," il veulent avec leurs solutions de cartographie de l'information, permettre à ces "web creators" et à tous les internautes désirant partager et éditer l'information, de faire partie de cette nouvelle génération de "web editors". Pearltrees offre la possibilité d'enregistrer, d'organiser et de commenter des contenus et des navigations de manière dynamique et communautaire. Ces informations agrégées sous forment de "perles " représentant chacune une URL créent au final des cartes thématiques riches et qualifiées qu'il est possible de partager et d'enrichir avec le reste de la communauté. Grâce à un concept et un format fondamentalement nouveau, Pearltrees offre de nouvelles perspectives:

    1- Cartographier et organiser le Web en enregistrant, déplacant, et éditant des contenus et des navigations dans des cartes arborescentes de manière vraiment personnelle, précise, subjective et ordonnée. Cette carte thématique propose une vision complète sur un domaine précis et apporte ainsi plus de souplesse que les simples historiques, favoris, bookmarks et autres listes de sites.

    2- Guider ses amis et lecteurs. Pearltrees n'est pas juste développé en pensant aux grands acteurs du web 2.0 qui ont une compréhension super hype. Chacun peut au sein de Pearltrees organiser des informations qui l'intéresse et intéressent sa communauté. Et oui nous pouvons agréger de l'information sur la musique, sur la mode, Facebook (parce qu'on est fan!) et les réseaux sociaux et la partager entre nous au quotidien au boulot mais aussi avec des amis aux US qui veulent connaîtrent les dernières tendances mode à Paris, ou encore une passion pour le DYI à découvrir pour exemple sur cette carte de l'univers du Do It Yourself qui vous guidera à travers les sites de ré

  • Jun 17, 09

    A new analysis of data from del.ici.ous shows that, while the number of tags grows roughly in proportion to the growth of content, users can unwittingly provide bridges between networks of seemingly unrelated concepts.

  • Jul 07, 09

    Nous avons fait le distinguo entre le cartographe et l'explorateur, reste également à évoquer le commanditaire et se rappeler la citation de Philippe Rekacewicz, responsable de l'équipe de cartographes de l'Atlas du Monde diplomatique : « La carte géographique n'est pas le territoire. Elle en est tout au plus une représentation ou une « perception ». La carte n'offre aux yeux du public que ce que le cartographe (ou ses commanditaires) veut montrer. Elle ne donne qu'une image tronquée, incomplète, partiale, voire trafiquée de la réalité. ». me renvoie à la cartographie et géographie amateur et aux limites d'une cartographie des réseaux sociaux

  • Oct 09, 12

    Le moteur vient de dévoiler les 65 mises à jour qu'il a réalisées au cours des deux derniers mois. Bon nombre d'entre elles tendent à le transformer en moteur de réponses. La localisation de l'internaute prend également une importance grandissante
    Le billet récapitulant les dernières mises à jour réalisées par le moteur de Google est désormais bimestriel. Il est en revanche toujours aussi dense (65 mises à jour), mais aussi toujours aussi opaque (quelques mots vagues évoquant souvent des "améliorations", sans plus de précisions pour chacune).
    Des pages de réponses plus que des pages listant des liens
    Une tendance de fond se dégage très nettement de cette liste : le moteur travaille de plus en plus à faire de ses pages de résultats des pages de réponses, et non des pages listant des liens renvoyant vers les réponses. En août, 10 mises à jour sont ainsi reliées au projet "Answers", soit près du tiers des mises à jour de ce mois. Parmi elles : un meilleur affichage de la calculatrice, des conversions de devises, ainsi que des horaires de cinéma ou d'avions.
    Le projet "Knowledge Graph" rejoint

    • Facebook’s current staffing for the AI project suggests the company will use deep learning to dive deeper into both computer vision and natural language processing. Face.com co-founder Yaniv Taigman and Lubomir Bourdev will contribute expertise on computer vision. But natural language expert Srini Narayanan is building the project’s staff, and Graph Search veteran Keith Adams will also move to the AI project.
    • Facebook has poached Marc’Aurelio Ranzato from Google’s deep learning project, likely to deliver expertise in how to start the computers learning. Ranzato studied under Geoffrey Hinton, the University of Toronto computer scientist whose research into how best to train deep neural networks has spurred much of the current activity in the field.
1 - 20 of 24 Next ›
20 items/page
List Comments (0)