Attribut:A pour description

Cette propriété est de type Texte.

Affichage de 20 pages utilisant cette propriété.
B
Le programme '''Bibliothèques Virtuelles Humanistes''' du CESR diffuse des documents patrimoniaux et poursuit des recherches associant des compétences en sciences humaines et en informatique. Il agrège plusieurs types de documents numériques : *Une sélection de [http://www.bvh.univ-tours.fr/accueil.asp fac-similés] d'ouvrages de la Renaissance numérisés en Région Centre et dans les établissements partenaires *La base textuelle [http://www.bvh.univ-tours.fr/Epistemon/index.asp Epistemon], qui offre des éditions numériques en XML-TEI *Des éditions numériques de [http://www.bvh.univ-tours.fr/manuscrits.asp manuscrits] littéraires et de documents d'archives du XVIe siècle. Il a pour objectif de fournir un ensemble de 2000 fac-similés d’ouvrages du XVe au XVIIe siècle provenant principalement des fonds patrimoniaux régionaux, avec l'espoir d'en proposer 10 à 20 % en mode texte, le reste étant accessible, en ligne et gratuitement, par une numérisation image de qualité.  +
R
Le programme de recherche multidisciplinaire '''REPAIRS - Réparations, compensations et indemnités au titre de l'esclavage''' (Europe-Amérique-Afrique) (XIXe-XXIe) permet d’étudier les indemnités versées par l’État français aux possesseurs d’esclaves. Deux types d’indemnités sont examinées : celles versées par l’État d’Haïti à la France en 1825, en échange de la reconnaissance de la souveraineté de la première république noire ; celles versées à tous les propriétaires d’esclaves dans les colonies esclavagistes de la France après l’abolition de l’esclavage en France en 1849 en forme de dédommagement. Les chercheurs et chercheuses du CIRESC ont regroupé les noms de tous les indemnitaires dans une base de données qui permettra de comprendre la structure économique et sociale de ces sociétés esclavagistes. Le '''site Esclavage et Indemnités''' présente les données sur '''les indemnités payées par Haïti en 1825 aux propriétaires français''', et '''celles versées, en 1849, par la France, aux propriétaires d’esclaves de l’empire français'''.  +
C
Le projet '''CLUSSTER''' ('''Cloud Unifié Souverain de Services, de Technologies et d’Infrastructures''') a pour objectif de renforcer la filière française et européenne du cloud en créant '''un cloud dédié à l’intelligence artificielle, au calcul haute-performance et au calcul quantique'''. Point d’entrée unique, CLUSSTER permettra de fédérer un ensemble de ressources numériques pour la communauté académique et industrielle. Ce projet est porté par un consortium associant des acteurs français du monde de la recherche académique et industrielle en calcul numérique et IA : GENCI, CEA, CNRS et Inria, ainsi que les industriels Eviden (groupe Atos), OVHcloud, CS GROUP, ActiveEon et Qarnot. [[IDRIS|IDRIS-CNRS]] mettra à disposition sur CLUSSTER les ressources de calcul de Jean Zay, un cluster réservé aux communautés scientifiques situées en zone à régime restrictif (ZRR) et un cluster hors ZRR pour héberger des utilisateurs ne disposant pas d’accès sécurisés. Au démarrage, CLUSSTER donnera accès à des environnements spécifiques au spatial (avec CS Group), au climat (CEA), au calcul de risque et au rendu 3D (Qarnot) ainsi qu’à la simulation numérique. Parmi les développements envisagés : * Le NLP (Natural Language Processing, traitement du langage naturel), avec un service basé entre autres sur le projet BigScience * La santé, en particulier la radiologie, en s’appuyant sur le laboratoire Bernoulli (commun entre Inria et AP-HP) * Sur la verticale « spatial », l’intégration de GAIA Data (observation, modélisation et compréhension du système Terre, de la biodiversité et de l’environnement).  +
E
Le projet '''EVEille (Exploration et Valorisation Electroniques des corpus En SHS)''' a pour objectif premier d’accompagner les jeunes chercheurs ou les chercheurs confirmés qui souhaitent s’initier aux Humanités au sein de pratiques de recherche nouvelles ou engagées de longue date. Il entend développer progressivement une réflexion collective critique sur les '''enjeux épistémologiques du virage du “tout-numérique”''' à l’heure actuelle, dans le monde académique notamment, afin de faire de l’outillage un réel lieu de réflexion sur les pratiques de la recherche, les visées et les orientations implicites introduites par le '''recours au traitement numérique des corpus'''. Il s'organise autour de trois pôles : # '''Formations''' * Des initiations aux humanités numériques à destination des étudiants de l'UHA et de l'Unistra * Un projet mutualisé d’introduction à l’éditorialisation des textes littéraires de la Première Modernité entre plusieurs universités * Un séminaire de formation sur la production de bibliothèques numériques pour la recherche * L’accompagnement de projets scientifiques conduits par les membres du laboratoire et leurs partenaires scientifiques # '''Manifestations et ateliers''' * Les Journées EVEille, un cycle de 5 journées annuelles organisées sur les principaux outils et enjeux des humanités numériques * Un atelier annuel de culture numérique * Un atelier de recherche “Écosophie du numérique” # '''Ressources et Matière à penser''' * Deux pages du carnet Hypothèses réunissent des tutoriels, des documents et des réflexions sur les '''outils, méthodes et enjeux épistémologiques des Humanités numériques'''. La préparation, l’agencement et la diffusion de ces matériaux relèvent d’un long travail collectif de réflexion, de recherche et d’expérimentation, afin de présenter des ressources pertinentes qui puissent faciliter le parcours d’apprentissage des chercheurs s’initiant aux questionnements numériques. L’accent est mis plus particulièrement sur les '''diverses composantes et étapes d’une chaîne de traitement''', dans le cadre d’un projet en humanités numériques, qu’il s’agisse de la constitution d’un corpus de recherche ou de l’établissement d’une édition critique numérique :acquisition des sources et documents, traitement et analyse des données, publication et diffusion, pérennisation et réutilisation des résultats obtenus.  
Le projet '''European Spallation Source''' (ESS) est un Consortium pour une infrastructure européenne de recherche (ERIC European Research Infrastructure Consortium). '''La source européenne de spallation''' sera située à Lund en Suède. Elle produira les premiers neutrons d‘une puissance de faisceau de 5 MW au premier semestre 2025, s'ouvrira aux premiers utilisateurs à l'automne 2026 et ses 15 instruments devraient être opérationnels courant 2028. '''La source de neutrons''' se composera de trois principaux sous-ensembles : l'accélérateur linéaire, la cible et une suite d'instruments autour de la cible. Les neutrons seront obtenus par spallation, réaction nucléaire résultant de l’irradiation d’une cible de tungstène par un faisceau de protons intense et de haute énergie. Ce dernier sera produit par un accélérateur de particules linéaire et supraconducteur (Linac supra). Les scientifiques pourront effectuer des recherches dans les domaines du magnétisme, de la spectroscopie à ultra-haute résolution, de la physique des particules, et dans les domaines plus appliqués de la santé, de l’environnement, de l’énergie, du climat, des transports, des télécommunications, de la fabrication, des technologies de l'information, et des biotechnologies. '''Le Data Management and Software Centre''' (DMSC) sera responsable de '''l’acquisition''' et de '''l’analyse des données scientifiques''' issues des instruments de l’infrastructure ESS. Il sera basé à Copenhague au Danemark. '''L’accès aux données''' produites et/ou gérées par l’infrastructure ESS sera soumis à '''une période d’embargo''' de 36 mois.  +
G
Le projet '''GDsAM''', '''Guichet de la Donnée du Site d'Aix-Marseille''', réunit une "équipe projet" constituée de spécialistes en informatique, en aspect juridique et en information scientifique et technique autour du chercheur ayant vocation à proposer un large panel de services accompagnant celui-ci tout au long du cycle de vie de ses données dans une logique FAIR. Accéder au [https://guichet-donnees.univ-amu.fr guichet unique] GDsaM fait partie des '''projets d’ateliers de la donnée en cours de labellisation''' par l'écosystème [[Recherche Data Gouv]]. Les partenaires du GDsAM sont Aix-Marseille Université (SCD et CEDRE), Huma-Num, PUD-AMU, MMSH, OpenEdition, CEA et CNRS.  +
J
Le projet '''JuDDGES''' exploite les technologies de pointe en matière de '''traitement du langage naturel (NLP) et de Human-In-The-Loop (HITL) pour révolutionner la manière dont les chercheurs juridiques accèdent, annotent et analysent les décisions judiciaires''' dans diverses juridictions. Il vise à '''développer un logiciel et des outils ouverts pour la méta-annotation étendue et flexible des dossiers juridiques''' des tribunaux pénaux dans des juridictions aux systèmes juridiques divers. Les objectifs sont les suivants : * Fournir aux chercheurs des outils pour une analyse approfondie des décisions judiciaires. * Mettre à la disposition du public des outils logiciels et des ensembles de données annotées à des fins de recherche et d'éducation. * Permettre l'expérimentation empirique des théories et des pratiques en matière de décisions  +
M
Le projet '''MIRRI''', '''Microbial Ressource Research Infrastructure''', est une Infrastructure de recherche distribuée qui facilite l’accès à des microorganismes de haute qualité, leurs dérivés et leurs données associées afin de servir la recherche et le développement académiques et industriels. Le pilier microbien de RARE contribue à la construction de l’infrastructure européenne MIRRI.  +
Le projet '''Mezanno''', collaboration de la BnF, l'IGN et l'EHESS, a pour objectif de '''faciliter l'annotation collaborative des ressources textuelles publiées avec l'API IIIF''', principalement en améliorant le visualisateur Mirador. Le projet Mezanno vise à '''créer une suite d'outils ouverts et interopérables pour l'annotation assistée de corpus personnalisés''', soutenus par une communauté d'utilisateurs et de contributeurs. Ces outils sont conçus pour répondre à trois étapes clés : * '''Construction du corpus''', * '''Extraction des données brutes''', * '''Structuration des données selon un modèle pertinent pour l'analyse''', tout en assurant l'interopérabilité des données exportées. Il s'appuiera fortement sur la '''norme IIIF pour assembler facilement des corpus à partir de ressources publiques et intégrera des modules d'intelligence artificielle''' pour aider les utilisateurs à extraire ou à transcrire le contenu brut des documents.  +
O
Le projet '''ODAS''' ('''Open Data for AStronomy''') du '''Centre de données astronomiques de Strasbourg''' ('''CDS''') vise à '''associer articles et données''' (images, spectres, cubes series) via le service de référence '''VizieR''' ('''catalogues astronomiques'''). L’objectif est de développer le processus de traitement, d'enrichissement, de stockage et de diffusion des données associées aux catalogues et tables publiés dans les principaux journaux de la discipline.  +
R
Le projet '''ResPaDon''', '''Réseau de Partenaires pour l’analyse et l’exploration de données numériques''', vise à développer et à diversifier '''les usages par les chercheurs des archives du web collectées et conservées par la Bibliothèque nationale de France''' : développement des pratiques de recherche, de nouvelles approches autour des archives du web, de nouvelles formes d’exploitation. ResPaDon était un projet financé par le GIS Collex-Persée, porté par l’Université de Lille et la Bibliothèque nationale de France, en partenariat avec Sciences Po Paris et le Campus Condorcet. Il est maintenant arrêté mais le site continu d'être une plateforme d'accès vers les données et les informations créées pendant la durée du projet.  +
S
Le projet '''SILECS''', '''Infrastructure for Large-Scale Experimental Computer Science''', est porté par Allistene, Alliance des sciences et technologies du numérique. Les partenaires sont le CNRS, l’Inria, l’IMT, Renater, Sorbonne Université, Université de Toulouse, Université Grenoble Alpes, Université de Lorraine, Université de Strasbourg, ENS Lyon, INSA Lyon, Université de Lille et Eurecom. SILECS fédérera les infrastructures de recherche [[Grid'5000|Grid’5000]] (Globalisation des Ressources Informatiques et des Données) et FIT (Future Internet of Things) afin de rationaliser et de mutualiser leurs moyens, et renforcer leur visibilité scientifique sur le plan national et européen. L'infrastructure sera distribuée sur plusieurs sites. L’objectif de SILECS est de fournir un grand équipement scientifique pour l’expérimentation de modèles, algorithmes et systèmes très grande-échelle, hétérogènes et distribués. Il sera constitué d’un instrument et d’outils logiciels permettant de disposer d’une large variété de ressources informatiques avancées de tailles variées. Les principaux aspects seront l’Internet des serveurs, l’Internet des objets, les réseaux sans fils et les réseaux d’interconnexion. SILECS est destiné aux chercheurs et industriels afin d’effectuer des tests, des observations, des analyses de modèles, d’algorithmes et de solutions. Le but sera d’assurer la reproductibilité des exécutions et de soutenir l’approche open data. Les codes sources produits par l’infrastructure sont ouverts sur une forge logicielle https://github.com/iot-lab/iot-lab.git  +
N
Le projet '''nepHAL+''' a pour objectif de développer '''un module autonome de soumission et d’évaluation''' qui permettra '''l’examen par les pairs des preprints, des jeux de données et des logiciels de la recherche''' disponibles dans des entrepôts dédiés, enrichissant ainsi l’offre éditoriale d’Episciences. Il inclura également un workflow pour la publication des rapports de relecture ouverts (open peer review) en lien avec les documents évalués. Le projet nepHAL+ s’appuiera sur une modularisation et une mise à jour du code d’Episciences. Le module sera utilisé par HAL pour le signalement des relectures de preprints et par Sciencesconf pour l’évaluation des communications. Mis à disposition en tant que logiciel libre, le module pourra être réutilisé par d’autres acteurs de l’édition scientifique. Il offrira une solution pour favoriser la reproductibilité de la démarche scientifique, la transparence et le continuum entre publications, données et logiciels.  +
P
Le projet Center for Data Science consiste à '''développer des méthodes et outils permettant d’analyser de vastes ensembles de données''' et d’en extraire l’information utile. Sa portée est '''multidisciplinaire''', puisqu’il cible aussi bien les domaines de la physique, de la biologie, de la médecine, de la chimie, que les domaines de l’environnement et des sciences humaines.  +
D
Le projet Datapoc (data : données ; poc : de l’anglais proof of concept /people of collections) vise à évaluer la faisabilité et l’opportunité de construire un référentiel « personnes » commun à l’ensemble des services et types de collections et de données produits et gérés au Muséum national d’Histoire naturelle. Ce référentiel devrait à la fois permettre de consolider les données et les bases de données existantes*, mais aussi d’encourager les utilisateurs à croiser, lier et exploiter des données qu’il leur est difficile de rassembler aujourd’hui compte tenu de la dispersion des catalogues et des applications. Le projet prend la forme d’une preuve de concept établie à partir d’un corpus limité de noms de naturalistes contemporains ou historiques (environ 500). Il consiste à : * tester la performance de technologies et de méthodes de traitement et d’alignement automatique de données à partir des bases de données disponibles, * réaliser un prototype d’interface orienté chercheur pour la visualisation humaine et la réutilisation par des machines des résultats et des données exposées, *émettre des préconisations pour un passage à l’échelle et une industrialisation (à la fois en volume et en type de données) La plateforme est un démonstrateur de faisabilité. Elle a vocation à évoluer et à être améliorée.  +
F
Le projet FooSIN vise à faciliter la mise en œuvre progressive des '''principes FAIR''' en contribuant à '''l’outillage des gestionnaires et des producteurs de données en agriculture et agro-alimentaire'''. L’amélioration de la gestion des données facilitera interdisciplinarité et reproductibilité des travaux tout en réduisant la duplication des données. FooSIN s’intéresse en particulier à l’application des principes FAIR aux '''ressources sémantiques''' (ontologies, thésaurus…) qui sont elles-mêmes un outil pour rendre les données plus FAIR (principe I2). Les partenaires du projet FooSIN sont l’INRAE, l’Université de Montpellier, le Cirad et l’IRD. L’objectif du projet FooSIN est de renforcer la participation d’acteurs français au '''Food Systems Implementation Network''' (IN) de '''GO FAIR'''. Le projet est maintenant terminé et les résultats sont accessibles sur le site internet.  +
G
Le projet GRIF fédère cinq laboratoires de '''physique des hautes énergies''' d’Île-de-France (le Laboratoire AstroParticule et Cosmologie de Paris [http://www.apc.univ-paris7.fr/APC_CS/ APC], le Laboratoire de Physique des 2 Infinis Irène Joliot-Curie [https://www.ijclab.in2p3.fr/ IJCLab], l'Institutut de Recherche sur les lois Fondamentales de l'Univers [http://irfu.cea.fr/ IRFU], le Laboratoire Leprince Ringuet [http://polywww.in2p3.fr/ LLR], le Laboratoire de Physique Nucléaire et de Hautes Energies [http://lpnhe.in2p3.fr/ LPNHE]) autour de '''moyens de calcul et de stockage''' distribués, basés sur la '''technologie des grilles de calcul'''. Ses ressources sont principalement utilisées par les physiciens subatomiques travaillant sur les expériences du '''Large Hadron Collider (LHC)'''. GRIF s'ouvre également à d’autres collaborations de physique des hautes énergies, auxquelles participent les laboratoires impliqués, ainsi qu'à des projets pluridisciplinaires dans le cadre de la '''European Grid Infrastructure (EGI)'''. L'utilisateur n'est pas en lien direct avec le mésocentre : en fonction du projet scientifique auquel il contribue, il rejoint une '''organisation virtuelle (VO)''' qui lui permet d'accéder aux ressources de la grille et de bénéficier de formations et d'un support utilisateurs.  +
I
Le projet IMPRINT vise à quantifier et à modéliser les processus qui relient le microclimat au macroclimat, sur de grandes étendues spatiales et à une résolution spatiotemporelle fine. Ceci, afin de reconstruire le microclimat passé, à partir d’observations issues de postes météo permanents. L’objectif ultime du projet IMPRINT est d’utiliser cette reconstruction à long terme du microclimat sous-couvert forestier pour améliorer la prédiction de la distribution future des espèces, en lien avec le changement climatique.  +
O
Le projet OLKi, Open Language and Knowledge for citizens vise à développer une '''plateforme fédérée pour ouvrir et faciliter la communication scientifique autour de ressources langagières'''. Elle permet de '''partager des ressources scientifiques''' (corpus, articles, vidéos, outils d’analyse, …). La plateforme OLKi s'appuie sur l'initiative citoyenne '''[https://fediverse.network/ Fediverse]''' et prévoit d’ajouter aux ressources qui y existent déjà (musique, blogs, vidéos…) une dimension recherche et connaissances scientifiques. Cette plateforme ambitionne de fluidifier la communication entre les acteurs –chercheurs, fournisseurs de services et citoyens, hébergera et diffusera des ressources scientifiques liées au langage et aux connaissances qui en sont extraites. À terme, au-delà des progrès en termes de contrôle, d’éthique, d’ouverture, de transparence et de respect de la vie privée, la plateforme résoudra des problèmes de nombreuses plateformes scientifiques actuelles, dont la maintenance à long terme, le passage à l’échelle, la réduction des coûts, le contrôle des fournisseurs de données et l’interaction entre recherche et citoyens. OLKi est un logiciel libre et gratuit qui peut être installé sur son propre serveur, exploité et modifié indépendamment. Interopérable, la plateforme utilise des protocoles standards pour assurer la compatibilité entre les serveurs OLKi, les référentiels et outils de publication existants.  +
P
Le projet PARDOQ ('''Partage et protection des données qualitatives à l’ère du numérique''') vise à rendre intelligibles les implications complexes du mouvement d’ouverture des données (open data) pour les sciences humaines et sociales (SHS). PARDOQ s’adresse aux communautés travaillant à partir de données qualitatives et se base sur l’analyse de l’expérience de chercheurs confrontés à la tension entre partage et protection des données qualitatives, en prenant appui sur le cas du programme interdisciplinaire [http://www.parchemins.bzh/ Parchemins] (Paroles et chemins de l'agriculture littorale). D’une durée de 12 mois, PARDOQ poursuit 3 objectifs: * Clarifier les conditions dans lesquelles les données qualitatives peuvent et doivent faire l’objet d’une publication ; * Contribuer à équiper les communautés de recherche sur un plan épistémologique et pratique, pour faciliter le partage de données ; * Mettre en place une animation scientifique permettant le partage et la capitalisation des expériences, en s’appuyant sur les réseaux dédiés au soutien et à l’accompagnement des transitions numériques. Le projet PARDOQ est coordonné par l’unité mixte de recherche [https://www.umr-amure.fr/ AMURE] et soutenu par le [https://www.marsouin.org/ GIS Marsouin].  +