Skip to main contentdfsdf

Lionel Dujol

Baromètre 2024 IFOP pour TALAN : tendances et évolution de l'adoption des IA génératives en France

Les Français et les IA génératives : ce baromètre 2024 met en évidence une démocratisation croissante des IA génératives : le nombre de leurs utilisateurs a augmenté de 60 % depuis l’édition 2023. Près de 70 % des 18-24 ans utilisent aujourd’hui ces technologies personnellement. En revanche, l’adoption diminue avec l’âge, seulement 47 % des 25-34 ans et 22 % des 35 ans et plus déclarent les utiliser à des fins personnelles.
ChatGPT est l’outil privilégié de 66% des utilisateurs devant Bard-Gemini de Google (15%), Adobe Photoshop optimisé par l’ IA (14%), Bing Copilot de Microsoft (13%).

Shared by Lionel Dujol, 1 save total

Lionel Dujol

ABF Bibliothèques Vertes - Quelles perspectives pour des politiques de numérisation patrimoniale écoresponsables ?

" une numérisation durable, responsable, serait donc avant tout celle qui ne vise pas à constituer le stock de données numériques le plus large, mais celle qui veille à inscrire les données ainsi produites dans un écosystème qui saura leur conférer une plus-value et, ce faisant, amortir le coût, économique comme environnemental, de leur production."

Shared by Lionel Dujol, Lionel Dujol added annotation, 2 saves total

  • C’est pourquoi une approche responsable de la numérisation privilégiera le choix d’un format tel que le JPEG 2000 : économe et durable, recommandé notamment par la BnF, il offre à la fois une compression d’excellente qualité (supérieure au JPEG) et des gains d’espace disque très intéressants (meilleurs que le JPEG).
  • ’une résolution de 300 dpi est amplement suffisante pour garantir une bonne qualité d’affichage de l’image, qui contient suffisamment d’informations pour que le produit numérisé soit estimé conforme à l’original

5 more annotations...

Lionel Dujol

Exploiter les outils d'informatique décisionnelle pour la lecture publique | LinkedIn

Retour d'Expérience très intéressant venant de la Médiathèque de l'Orne sur l'automatisation de l'exploitation et de la visualisation des données des médiathèques du réseau sur le logiciel Excel.

Shared by Lionel Dujol, 1 save total

Lionel Dujol

Près de la moitié des métiers territoriaux pourraient être concernés par l'IA

"Selon une étude menée par des élèves de l'Inet à partir des données de la ville de Lyon, 45% des postes répertoriés dans la collectivité seraient concernés par l'introduction de l'intelligence artificielle. Si peu de métiers semblent susceptibles de disparaître, l'étude incite les élus à anticiper la mutation des postes les plus affectés."

Shared by Lionel Dujol, 1 save total

Lionel Dujol

Baromètre du numérique 2023 : une appropriation très hétérogène

"Interrogés sur les lieux qui proposent un accompagnement numérique, 33 % des répondants citent la mairie ou l'intercommunalité. Une proportion quasiment identique (32 %) évoque les médiathèques et les bibliothèques. À distance notable, suivent les espaces de France Services (19 %) et les associations de proximité (17 %). Un espace public numérique est cité par 15 % des répondants, suivi par les cybercafés/taxiphones (12 %) et des lieux tels qu'un fablab, une ressourcerie etc (10 %). "

Shared by Lionel Dujol, 1 save total

Lionel Dujol

L’intelligence artificielle, une nouvelle collègue au banc d’essai

"Les expérimentations sur l'intelligence artificielle fleurissent dans les collectivités. Une nouvelle pratique qui suppose d'en mesurer les impacts tant sur l'organisation du travail des agents que sur le rapport à l'usager."

Shared by Lionel Dujol, 2 saves total

Lionel Dujol

Créons des communs numériques - un guide pas à pas pour permettre aux acteurs publics de créer ou participer à des communs numériques

"Le numérique est la source d’un nouvel essor pour le mouvement de commun, ce n’est donc pas une surprise si de plus en plus d’industries se regroupent afin de faire émerger de tels communs comme alternatives viables aux logiques des acteurs dominants du numérique"

Shared by Lionel Dujol, 3 saves total

Lionel Dujol

Common Corpus: building AI as Commons – Open Future

Il y a un vrai enjeu à constituer un méga-corpus d’entraînement multilingue pour que les IA soient justes et transparentes. Parce qu’aujourd’hui la compétition est moins sur les modèles de langues qui vont probablement se stabiliser en performances que sur les masses de données sur lesquelles ils peuvent s’entraîner. Ce corpus en communs mérite largement son nom, c’est un commun de la connaissance à grande échelle, il faut en prendre soin et le réguler à ce titre.

Shared by Lionel Dujol, Lionel Dujol added annotation, 1 save total

  • Pierre-Carl made also a key point about the ongoing-push for counter regulation –with the New York Times suing Microsoft and OpenAI for infringement of the publisher’s copyrights. This will lead AI companies to sign licensing deals with rightsholders. There are first examples of such deals: between Reddit and Google, or Le Monde and OpenAI. A licensed approach to model training creates one more risk of gatekeeping, as only the largest companies will be able to afford the licensing costs. Launched a bit over a month ago, Common Corpus is an attempt to address these challenges by presenting a new way of contributing to the development of AI as Commons.

     

    As the largest training data set for language models based on open content to date, Common Corpus is built with open data, including administrative data as well as cultural and open-science resources – like CC-licensed YouTube videos, 21 million digitized newspapers, and millions of books, among others.  With 180 billion words, it is currently the largest English-speaking data set, but it is also multilingual and leads in terms of open data sets in French (110 billion words), German (30 billion words), Spanish, Dutch, and Italian. Developing Common Corpus was an international effort involving a spectrum of stakeholders from the French Ministry of Culture to digital heritage researchers and open science LLM community, including companies such as HuggingFace, Occiglot, Eleuther, and Nomic AI. The collaborative effort behind building the data set reflects a vision of fostering a culture of openness and accessibility in AI research. Releasing Common Corpus is an attempt at democratizing access to large, quality data sets, which can be used for LLM training. Common Corpus aims to become a key component of a wider pretraining Commons ecosystem such as the “licensed” Pile currently prepared by Eleuther.

Show more items

Diigo is about better ways to research, share and collaborate on information. Learn more »

Join Diigo