L’intelligence artificielle s’invite au cœur de la recherche : retour sur une journée de réflexion à l’UCLouvain
biul |
L’intelligence artificielle s’invite au cœur de la recherche : retour sur une journée de réflexion à l’UCLouvain
Le 05 juin 2025 - Par les Bibliothèques et Learning Centers de l’UCLouvain, avec l’assistance de l’outil IA Copilot.
Introduction
Le 26 mai dernier, près de 200 chercheurs·euses et professeurs·es se sont réunis·es à Louvain-la-Neuve pour une matinée de réflexion consacrée aux usages de l’intelligence artificielle (IA) dans la recherche. Organisée par les Bibliothèques et Learning Centers de l’UCLouvain en collaboration avec le professeur Yves Deville (Chargé de Mission IA), cette rencontre a permis d’explorer les enjeux scientifiques, pédagogiques, juridiques et éthiques, liés à l’essor des IA génératives. Ces thèmes ont été abordés en alternant des interventions d’experts et des moments de débat et de partage d’expériences entre chercheurs·ses toutes disciplines confondues.
Retour sur le test de Scite.ai
Le retour d’expérience de 60 testeurs·euses sur l’outil Scite.ai, présenté par Bérénice Vanhufflen pour les Bibliothèques et Learning Centers, a mis en lumière les attentes et les réserves des chercheurs·euses. S’ils·elles saluent la rapidité et la capacité de synthèse de cet outil, ils·elles pointent aussi ses limites : résultats parfois approximatifs, hallucinations, et manque de valeur ajoutée par rapport aux bases de données traditionnelles. Le besoin d’un cadre institutionnel clair et de formations adaptées s’est imposé comme une priorité.
Mémoire de fin d’études et IA : entre enthousiasme et prudence
Dans le Secteur des Sciences de la Santé, une enquête présentée par Camilia Bali (collaboratrice pédagogique à la Cellule de Développement Pédagogique du SSS) a révélé que la majorité des promoteurs·trices et des étudiants·es voient l’IA comme un outil incontournable. Pourtant, l’absence de consignes explicites suscite des craintes de fraude et d’injustice. Des initiatives concrètes ont été lancées : ateliers, pages Moodle et règles facultaires. La question de la sécurité des données reste toutefois encore peu abordée.
Enjeux juridiques
Lors de son intervention, Clément Maertens (doctorant en JURI et spécialiste du droit d’auteur) a rappelé que les enjeux juridiques liés à l’IA concernent principalement le droit d’auteur et la protection des données personnelles. Les modèles d’IA générative, comme les LLM, nécessitent d’énormes quantités de données, souvent protégées juridiquement. Les chercheurs·euses produisent des contenus (articles, données) soumis au droit d’auteur et toute reproduction ou adaptation nécessite leur autorisation. Le RGPD impose des règles strictes sur l’utilisation des données personnelles qui ne sont pas nécessairement respectées par les IA. Il est donc recommandé de ne pas fournir à l’IA des données personnelles ou contenus d’œuvres protégées.
Point sur la consommation énergétique
Pour David Bol (professeur à l’EPL et chercheur à l’institut ICTEAM) l’impact environnemental des IA, alimentées par des infrastructures énergivores, interroge sur la responsabilité collective des institutions. Depuis l’essor de l’IA générative, la consommation énergétique liée à l’utilisation a fortement augmenté. Bien que les technologies deviennent plus efficaces, l’effet rebond – une augmentation de l’usage liée à la baisse du coût énergétique unitaire – annule souvent ces gains. David Bol a partagé ses réticences et ses craintes à propos de l’IA, qu’il préfère pour sa part ne pas utiliser.
Une stratégie institutionnelle en construction
Yves Deville a présenté la réflexion stratégique amorcée par l’UCLouvain à propos de l’intégration de l’IA générative dans les missions d’enseignement, de recherche et d’administration. Un rapport publié en juillet 2024 a posé les bases d’un usage responsable, fondé sur trois principes : responsabilité, transparence et authenticité. Un outil interne est en cours de développement. Il garantira la souveraineté des données et s’inscrira dans une logique de formation, d’expérimentation et de transparence. Le déploiement est espéré pour la rentrée 2025.
Débats ouverts et regards critiques
Les moments de débats ont permis de confronter les points de vue. L’utilisation de l’IA apporte-t-elle réellement un gain de temps ? Cette utilisation menace-t-elle l’esprit critique ? Peut-elle démocratiser l’accès à la connaissance sans uniformiser la pensée ? La question de l’irréversibilité de l’usage de l’IA a été posée : une fois qu’on y a goûté, peut-on revenir en arrière ? Certain·e·s chercheurs·euses affirment avoir réduit leur usage après avoir constaté les limites des outils. Des inquiétudes ont été également exprimées quant à l’impact écologique, la sécurité des données et la fiabilité des informations obtenues par l’IA. La question de la fracture numérique a été soulevée en lien avec l’importance de sensibiliser à un usage critique des IA. Concernant l’enseignement, les échanges ont souligné la nécessité de former les étudiants·es à un usage raisonné, tout en repensant les modalités d’évaluation à l’ère des outils génératifs. Il en est ressorti le besoin d’un cadre et de balises claires sur l’utilisation de l’IA dans notre institution, aussi bien dans l’enseignement que dans la recherche.
Et les Bibliothèques dans tout cela ?
Formations, accompagnement, veille technologique : les Bibliothèques et Learning Centers ont été identifiés comme des acteurs clés pour aider la communauté à naviguer dans le paysage des outils IA. Il s’agit désormais de réfléchir collectivement à la manière de mutualiser les efforts et de collaborer avec d’autres acteurs institutionnels pour construire des formations adaptées et transversales.