Rechercher par propriété

Cette page fournit une simple interface de navigation pour trouver des entités décrites par une propriété et une valeur nommée. D’autres interfaces de recherche disponibles comprennent la page recherche de propriété, et le constructeur de requêtes « ask ».

Rechercher par propriété

Une liste de valeurs qui ont la propriété « A pour description » affectée.

Affichage de 50 résultats à partir du nº 1.

Voir (50 précédentes | ) (20 | 50 | 100 | 250 | 500)


    

Liste de résultats

  • ''' EaSy Data''' a été identifié comme éta''' EaSy Data''' a été identifié comme étant l’'''entrepôt thématique national''' des données dites « orphelines » ou de longue traine de l’Environnement et du Système Terre. Les '''données de longue traîne''' peuvent y être déposées simplement, dans le respect des principes FAIR, et bénéficier d’un DOI pour chaque jeu de données. Une équipe de référents thématiques distribués accompagne et conseille les utilisateurs tout au long du processus.</br></br>Cet '''entrepôt de données thématique''' est porté par l’ensemble des partenaires de l’IR DATA TERRA et des pôles de données (CNRS, CNES, IRD, INRAE, Météo-France, Ifremer, IGN, BRGM, …). Une équipe dédiée associant des experts du BRGM et de DATA TERRA coordonne sa mise en œuvre. L’entrepôt est hébergé au BRGM. </br></br>Les '''métadonnées respectent les principes FAIR''' conformément aux recommandations nationales et européennes. Des vocabulaires sont utilisés pour améliorer la qualité de description des jeux de données et garantir un certain niveau d’interopérabilité entre systèmes. Un système de modération assure la qualité des dépôts effectués. Elles respectent les standards et directives du domaine ('''ISO 19115-3, INSPIRE'''). Elles sont compatibles et exportables vers d’autres formats et schémas de métadonnées (GeoDCAT-AP, DataCite, ..). Elles sont accessibles via des API standardisées dans différents formats (JSON, XML, RDF).</br></br>EaSy Data rend visible les jeux de données d’autres entrepôts thématiques (e.g. Seanoe, Data Indores), et les données stockées dans cet entrepôt seront référencées au niveau du catalogue de '''DATA TERRA''' mais également au niveau national dans le catalogue de '''Recherche Data Gouv'''.</br></br>L’entrepôt de données peut être moissonné via des protocoles normalisés (OAI-PMH, CSW, OpenSearch). Les métadonnées de l’entrepôt seront visibles dans les catalogues de données et des services de l’IR DATA TERRA et dans le catalogue de la plate-forme nationale fédérée de la recherche.</br></br>EaSy Data propose une interface conviviale et simple d’utilisation pour le dépôt et les recherches. Il est basé sur des standards reconnus par les communautés du Système Terre et de l’Environnement, facilitant la '''découverte et la réutilisation des données''' déposées. la réutilisation des données''' déposées.  +
  • '''2P2IDB''' est une '''base de données st'''2P2IDB''' est une '''base de données structurale''' dédiée aux '''interactions protéine-protéine''' pour lesquelles des '''inhibiteurs d’interface''' ont été caractérisés. Cette base de données développée et maintenue par le [[CRCM]] contient des données structurales sur les interfaces protéine-protéine et leurs inhibiteurs connus.éine-protéine et leurs inhibiteurs connus.  +
  • '''ABCdb''', '''Archaeal and Bacterial ABC Systems database''', est une base de données de systèmes ABC de bactéries et d’archées.  +
  • '''ADES''' est le '''portail national d’Ac'''ADES''' est le '''portail national d’Accès aux Données sur les Eaux Souterraines''' pour la France métropolitaine et les départements d’outre-mer. Il rassemble sur un site Internet public des '''données quantitatives et qualitatives relatives aux eaux souterraines'''.</br>Les objectifs de cet outil sont de : </br>*constituer un outil de collecte et de conservation des données sur les eaux souterraines,</br>*être mobilisable par un large ensemble de partenaires,</br>*permettre les traitements nécessaires à l’action de chacun des partenaires,</br>*être le guichet d’accès aux informations sur les eaux souterraines,</br>*avoir un suivi de l’état des ressources pour répondre à la politique des eaux souterraines,</br>*adopter au niveau national un principe de transparence et d’accessibilité aux données sur les eaux souterraines.</br></br>ADES s’inscrit dans le système d'information sur l'eau, [[SIE]], dispositif créé par l'État pour le partage et la mise à disposition des données sur l'eau. mise à disposition des données sur l'eau.  +
  • '''ALICE''' - '''A Large Ion Collider Expe'''ALICE''' - '''A Large Ion Collider Experiment''' - est un '''détecteur spécialisé dans la physique des ions lourds installé sur l’anneau du Grand collisionneur de hadrons (LHC)'''. Il a été conçu pour étudier les propriétés physiques de la matière soumise à l’interaction forte, à des densités d’énergie extrêmes auxquelles une phase de la matière appelée plasma quarks-gluons se forme.</br></br>La collaboration ALICE étudie le plasma quarks-gluons pendant qu’il se dilate et se refroidit, observant comment il donne progressivement naissance aux particules qui constituent la matière de notre univers.</br></br>Pour étudier le plasma quarks-gluons, la collaboration ALICE utilise le détecteur ALICE, qui pèse 10 000 tonnes et mesure 26 mètres de long, 16 mètres de haut et 16 mètres de large. Celui-ci est installé dans une vaste caverne située à 56 mètres sous terre, à proximité du village de Saint-Genis-Pouilly (France), où il reçoit les faisceaux du LHC.rance), où il reçoit les faisceaux du LHC.  +
  • '''APOLLON''' est une infrastructure de re'''APOLLON''' est une infrastructure de recherche (IR) opérée par le Laboratoire pour l’Utilisation des Lasers Intenses (LULI) et placée sous la tutelle du Centre national de la recherche scientifique (CNRS) et de l’École polytechnique. Elle est conçue pour atteindre '''une puissance laser multipetawatt exceptionnelle'''.</br></br>APOLLON délivre '''un ensemble de sources laser ultra-intenses et ultra-brèves''', superposables sur une même tache focale et synchronisables, d'énergie totale maximale sur cible de 265 J. Il alimente 2 salles expérimentales, la salle « courte focale » pour '''générer des faisceaux de protons, d’ions et de rayonnements X''', et la salle « longue focale » dédiée à '''l'accélération d'électrons''' sur plusieurs dizaines de mètres. </br></br>Le laser APOLLON devrait à terme atteindre une puissance de 10 PW et sera exploité dans le cadre de la recherche fondamentale et appliquée ('''physique en champ fort''', '''accélération de particules au-delà du GeV'''). </br></br>Cet instrument permet d’explorer de nouveaux domaines de '''la physique relativiste''' à '''la physique du vide''', par la réalisation d’expériences d’interactions avec la matière à très haute intensité, pour des applications finales liées à '''l’énergie''', '''la biologie''', '''la médecine''' et '''le nucléaire'''.</br></br>La politique de données de l’infrastructure est en cours de validation.infrastructure est en cours de validation.  +
  • '''ARTbio''' est une plateforme de service'''ARTbio''' est une plateforme de service s’appuyant sur l’outil '''Galaxy''', une plateforme ouverte et collaborative qui intègre un ensemble de '''logiciels d’analyses de données'''. Il permet aux chercheurs qui ont peu de connaissances en bioinformatique de les acquérir et de mener ainsi eux-mêmes leurs analyses. L’objectif est d’amener les chercheurs à réaliser leurs propres analyses, en rendant accessibles les outils dont ils ont besoin, en les aidant à choisir la meilleure stratégie et à identifier les paramètres les plus adaptés à leurs analyses. </br></br>Cet objectif est abordé à travers 3 axes: </br>* '''Services''' (services d'analyse ou de projets collaboratifs, services web en ligne) </br>* '''Enseignement''' (accompagnement, journées de formation, séminaires, documentation)</br>* '''Développement''' (outils, workflows, environnements d'analyse, stockage, etc)</br></br></br>L’équipe d’ARTbio développe actuellement un logiciel visant à analyser la présence de nouveaux virus à partir des expériences de séquençages d’ARN. Elle développe également un outil de virtualisation, qui permet à tout utilisateur d’exécuter ses propres codes sans quitter l’environnement Galaxy, ainsi que le logiciel "Galaxy-Kick-Start", qui permet de déployer rapidement des serveurs Galaxy personnalisés et adaptés à chaque projet d'analyse.isés et adaptés à chaque projet d'analyse.  +
  • '''ATLAS''' est l’un des deux '''détecteur'''ATLAS''' est l’un des deux '''détecteurs polyvalents du Grand collisionneur de hadrons (LHC)'''. Il étudie des domaines de physique très variés, de la recherche du boson de Higgs aux dimensions supplémentaires de l’espace-temps, en passant par les particules qui pourraient former la matière noire.</br></br>Les faisceaux de particules du LHC entrent en collision au centre du détecteur ATLAS. Les débris de collision ainsi produits forment de nouvelles particules, qui émergent du point de collision dans toutes les directions. Six sous-systèmes de détection différents disposés en couches autour du point de collision enregistrent la trajectoire, l’impulsion et l’énergie des particules, ce qui permet d'identifier chacune d'elles. Un énorme système d’aimants permet d’incurver la trajectoire des particules et, ainsi, de mesurer leur impulsion.</br></br>Les interactions produites dans les détecteurs d’ATLAS créent un énorme flux de données. Pour assimiler ces données, ATLAS utilise un système de « déclenchement » de pointe, qui indique au détecteur les événements devant être enregistrés et ceux devant être ignorés. Des systèmes complexes d’acquisition de données et de calcul sont ensuite utilisés pour analyser les événements enregistrés. Mesurant 46 m de long, 25 m de haut et 25 m de large, et pesant 7000 tonnes, le détecteur ATLAS est le détecteur de particules le plus volumineux jamais construit. Il se situe dans une caverne, à 100 m sous terre, à proximité du site principal du CERN et de la commune de Meyrin, en Suisse.ERN et de la commune de Meyrin, en Suisse.  +
  • '''Adonis''' ( '''Acquisition de DONnées à'''Adonis''' ( '''Acquisition de DONnées à l'Inra''') est un un '''logiciel d’acquisition de données''' développé et déployé à l'INRAE. Il intègre des '''fonctionnalités d'aide à la saisie des observations et des mesures réalisées dans les dispositifs d’expérimentation végétale''' (serre, champ, verger, forêt, ...). Adonis permet l’acquisition et la structuration des données sur le terrain, dans le cadre d’expérimentations végétales. Son utilisation fiabilise les saisies et assure leur traçabilité. Les données et l’ensemble des informations relatives à leur acquisition sont centralisés et peuvent être organisés selon des nomenclatures mutualisées pour faciliter les échanges dans les réseaux d’expérimentations.</br></br>L'application permet de réaliser :</br>*la conception de l’expérimentation et l’organisation de la saisie au bureau,</br>*la saisie des données et métadonnées sur le terrain à l’aide d’ordinateur (portables, tablettes, ...),</br>*la réintégration de ces données au bureau.</br> </br>Le logiciel Adonis intègre naturellement des fonctionnalités permettant de répondre aux deux critères essentiels de la démarche qualité, à savoir la fiabilité des données produites et la traçabilité de l’activité expérimentale.</br></br>Il se compose de 2 utilitaires : Adonis bureau et Adonis terrain.</br></br>Le projet Adonis est piloté par la CNUE (Commission Nationale des Unités Expérimentales), en partenariat avec les Départements AgroEcoSystem (Agronomie et sciences de l'environnement pour les agroécosystèmes ), ECODIV (Ecologie et biodiversité des milieux forestiers, prairiaux et aquatiques), BAP (Biologie et Amélioration des Plantes) et SPE (Santé des Plantes et Environnement) ainsi que la DSI (Direction du Système d'Information). DSI (Direction du Système d'Information).  +
  • '''ArchiPolis''' est un réseau coopératif '''ArchiPolis''' est un réseau coopératif multi-métiers fédérant des laboratoires menant des recherches empiriques en sciences sociales dans le domaine du politique. Il rassemble 8 unités de recherche :</br>* Le Centre de Données Socio-Politiques ([[CDSP]]), assure également le portage administratif ;</br>* Le Centre d’Études Européennes ([http://www.sciencespo.fr/centre-etudes-europeennes/fr CEE]) ;</br>* Le Centre de Recherches Politiques ([https://www.sciencespo.fr/cevipof/ CEVIPOF]) ;</br>* L'Observatoire Sociologique du Changement ([http://www.sciencespo.fr/osc/fr OSC]) ;</br>* Le Centre de Sociologie des Organisations ([http://www.cso.edu CSO]) ;</br>* Le Centre d’Études et de Recherches Administratives, Politiques et Sociales ([http://ceraps.univ-lille2.fr/ Ceraps]) ;</br>* L'UMR Politiques publiques, Action politique, Territoires ([https://www.pacte-grenoble.fr/ Pacte]) ;</br>* L'UMR Action, discours, pensée politique et économique ([http://triangle.ens-lyon.fr/ Triangle]).</br></br></br>ArchiPolis a été labellisé par l'IR* Huma-Num entre 2012 et 2016.</br></br>L’objectif du consortium est de proposer des méthodes et des outils communs pour la '''sauvegarde des archives d'enquêtes en sciences sociales du politique'''. Il a notamment développé un outil commun d’[https://catalogues.cdsp.sciences-po.fr/dataverse/archipolis inventaire des enquêtes qualitatives en sciences sociales]. Il s'accompagne de '''méthodes et bonnes pratiques d’inventaire et d’archivage''' et d’une '''sensibilisation des chercheurs''' à ces démarches. Il s’agit de rendre ces enquêtes intelligibles grâce à une '''documentation''' et une '''mise en contexte''' conséquentes. Le travail du consortium est mené en collaboration avec les réseaux d’archivistes et de documentalistes des universités et établissements d’enseignement supérieur et de recherche. d’enseignement supérieur et de recherche.  +
  • '''ArchiTex''' est un service accompagnant'''ArchiTex''' est un service accompagnant tous les enseignants-chercheurs, chercheurs et doctorants en SHS de l'Université Clermont Auvergne dans la création de corpus de données numériques. En accord avec les recommandations de la TGIR Huma-Num et de l'ensemble des consortiums SHS, ArchiTex propose aux chercheurs des solutions toujours en accord avec les normes et procédures qui s'appliquent dans le domaine.</br></br>Le domaine d'intervention est très vaste, et va de la mise en place d'une infrastructure pour aider les utilisateurs à '''organiser et à rassembler leurs données''', à la '''réalisation d'un corpus web''', en passant par l'utilisation d'outils spécifiques qui peuvent permettre d''''analyser, de croiser, de visualiser et d'indexer les données'''. L'indexation se réalise à travers la mise en place de '''métadonnées''' qui sont "captées" par les outils de référencement.</br></br>ArchiTex met à disposition les compétences suivantes : </br>* La création de '''sites web de corpus'''</br>* La '''modélisation de données'''</br>* La prise en compte de la '''science ouverte''' dans vos recherches</br>* La gestion de revues</br>* La mise à disposition d'espaces Extranets</br>* Des formationsition d'espaces Extranets * Des formations  +
  • '''Archéosciences Bordeaux''' est un labor'''Archéosciences Bordeaux''' est un laboratoire de recherche à l’interface des Sciences Humaines et Sociales, et des sciences physiques, chimiques et naturelles. Ses axes de recherches portent sur la chronologie des peuplements humains, la circulation des matériaux et des techniques anciennes et l’imagerie appliquée au patrimoine.</br></br>Les recherches menées au sein de l’UMR Archéosciences Bordeaux s’ancrent dans '''les sciences archéologiques et le patrimoine au sens large''' ; la spécificité de la démarche repose sur '''une approche pluridisciplinaire,''' multiscalaire (de l’atome à l’édifice monumental et même au territoire) et diachronique (du paléolithique inférieur à nos jours). Elle vise à éclairer les débats relatifs aux grandes questions archéologiques : émergence des sociétés et structurations, échanges, interaction hommes-environnements, mobilités humaines, migrations, mais aussi expressions symboliques, culturelles et artistiques, développement et diffusion des techniques, notion d’innovation…usion des techniques, notion d’innovation…  +
  • '''ArkeOpen''' est une interface en libre '''ArkeOpen''' est une interface en libre accès permettant de '''consulter, d’interroger et de croiser les données ouvertes''' issues de la plateforme de recherche et d'enseignement ArkeoGIS.</br></br>Dans le cadre de ce service, les données sont mises à disposition de tous, en '''anglais et en français''', pour participer à la '''promotion, la diffusion et la réutilisation''' sans entrave des données de la recherche. Suivant les '''principes FAIR''', elles sont aussi respectueuses de la '''logique des données ouvertes et liées (LOD)'''.</br></br>La plateforme est animée et administrée par l’Université de Strasbourg et la Maison Inter-universitaire des Sciences de l'Homme – Alsace (MISHA) sur les infrastructures de la IR des humanités numériques Huma-Num, par une équipe pluridisciplinaire.ma-Num, par une équipe pluridisciplinaire.  +
  • '''AuReMe''', '''AUtomated REconstruction '''AuReMe''', '''AUtomated REconstruction of MEtabolic models''', est un '''espace de travail modulaire et adaptable pour la reconstruction reproductible de modèles métaboliques à l'échelle génomique'''. L'espace de travail permet d'explorer, de visualiser et de distribuer les modèles à l'échelle du génome et leurs métadonnées par la génération de wikis locaux.</br></br>AuReMe est construit autour d'un paquet Python PADMet (Python library for hAndling metaData of METabolism), pour abriter la reconstruction de la reconstruction de modèles métaboliques à l'échelle du génome (GSMs).métaboliques à l'échelle du génome (GSMs).  +
  • '''BASS2000''' archive et donne accès à de'''BASS2000''' archive et donne accès à des '''données d’observation du soleil''', fournies par différents observatoires en '''France'''. Les données sont issues d’instruments basés au sol, de type '''spectrohéliographes''', '''radiohéliographes''', '''coronographes''' et '''cartes synoptiques'''. Disponibles '''en libre accès''', elles sont destinées à être réutilisées dans un '''but exclusivement scientifique ou pédagogique'''.lusivement scientifique ou pédagogique'''.  +
  • '''BCL''' est un laboratoire intégrant des'''BCL''' est un laboratoire intégrant des linguistes et des psychologues dont les recherches sont centrées sur le '''langage en tant que fonction cognitive : ses structures et processus, son fonctionnement et son acquisition'''. </br></br>Le laboratoire cherche à forger l’'''identité niçoise des études sur le langage par la dialectique puisée dans l’entrelacement d’un objet construit et théorisé, d’une méthodologie et d’une expertise dans des thématiques spécifiques'''.rtise dans des thématiques spécifiques'''.  +
  • '''BiRD''' conseille, propose et développe'''BiRD''' conseille, propose et développe des services bioinformatiques : '''soutien à l'analyse des données de séquençage à haut débit, c'est-à-dire la détection des variants, l'étude du transcriptome et maintenant l'analyse des microbiotes'''. À cette fin, elle travaille conjointement avec le centre GenoA, qui gère la préparation des bibliothèques et les projets de séquençage.</br></br>Pour toutes ces applications, BiRD possède une '''expertise dans l'analyse de données à grande échelle et développe des pipelines d'analyse bioinformatique''' dédiés afin de standardiser l'analyse des données brutes jusqu'à l'interprétation biologique.</br></br>Ces services sont soutenus par une infrastructure de calcul et de stockage dédiée, accessible à distance par plusieurs services et ouverte à la communauté scientifique quelle que soit son institution.</br></br></br>____________________________________________</br></br></br></br>'''BiRD''' advises, proposes and develops bioinformatics services: '''support for high throughput sequencing data analysis, i.e. variant detection, transcriptome study and now microbiote analysis.''' To this end, BiRD works jointly with the GenoA core facility, which handles library preparation and sequencing projects.</br></br>For all these applications, BiRD has '''expertise in large-scale data analysis and develops dedicated bioinformatics analysis pipelines''' to standardize analysis from raw data to biological interpretation.</br></br>These services are supported by a dedicated computing and storage infrastructure, remotely accessible through several services and open to the scientific community regardless of its institution.c community regardless of its institution.  +
  • '''Brian 2''' est un simulateur de réseaux'''Brian 2''' est un simulateur de réseaux de neurones biologiques à impulsions, conçu pour faciliter le développement de '''nouveaux modèles'''.</br></br>Il adopte une approche novatrice en exprimant les modèles à l’aide d’'''équations mathématiques et d’unités physiques, permettant une extension facile pour interagir avec un code externe'''. Cela offre plus de flexibilité, permettant aux chercheurs et chercheuses d’explorer une variété de modèles sans sacrifier la facilité d’utilisation, la précision et la fiabilité du simulateur.</br></br>Il est écrit en langage de programmation Python et est disponible sur presque toutes les plateformes.onible sur presque toutes les plateformes.  +
  • '''CALI''', '''CAlcul en LImousin''', est '''CALI''', '''CAlcul en LImousin''', est un serveur de calcul dédié aux chercheurs des 4 Instituts de recherche  (XLIM, IPAM, GEIST,  SHS) de l’Université de Limoges et ouvert aux partenaires régionaux. L’objectif est de fédérer la communauté des chercheurs sur la thématique du '''calcul scientifique'''. La Direction du Système d'Information assure l’administration des moyens de calcul scientifique, l’installation des logiciels de recherche et les conseils sur les configurations matérielles. Les chercheurs des disciplines suivantes utilisent CALI : '''électronique''', '''optique''', '''communication''', '''informatique''', '''matériaux''', '''génie des procédés''', '''génomique''', '''immunité''', '''environnement''', '''géographie'''. CALI dispose de 2 espaces de '''stockage''' (temporaire et permanent) pour les données de recherche. permanent) pour les données de recherche.  +
  • '''CATdb''' met à disposition les '''analy'''CATdb''' met à disposition les '''analyses de transcriptome réalisées par la plateforme POPS de l’IPS2''' (cf. [https://ips2.u-psud.fr/fr/plateformes/spomics-interatome-metabolome-transcriptome.html SPOMICS]), depuis les plans expérimentaux jusqu’aux analyses différentielles en passant par les descriptions complètes des échantillons et leurs traitements, pour plusieurs espèces végétales.</br></br>Le module [http://tools.ips2.u-psud.fr/GEM2Net/ '''GEM2Net'''] donne accès aux méta-analyses du transcriptome d’Arabidopsis thaliana sous conditions de stress variées.haliana sous conditions de stress variées.  +
  • '''CLARIN''', '''Common Language Resources'''CLARIN''', '''Common Language Resources and Technology Infrastructure''', est une infrastructure européenne dédiée au '''partage de ressources et d’outils autour du langage'''. L’objectif de CLARIN est de créer et maintenir une infrastructure pour soutenir le partage, l’utilisation et la durabilité des données et des outils linguistiques pour la recherche en SHS.</br></br>CLARIN s’organise comme une fédération de centres offrant des données, des services et des compétences. L’un des outils les plus emblématiques de l’infrastructure est l’'''Observatoire Virtuel des Langues (VLO)''' qui regroupe plus d’un million de ressources issues des centres CLARIN.</br></br>Les ressources proposées par CLARIN sont utiles à toutes les disciplines des SHS, même si les principaux utilisateurs se trouvent plutôt dans les domaines de la linguistique et du traitement automatique du langage.</br></br>En tant qu’utilisateur, CLARIN facilite :</br>*la découverte et le dépôt de ressources</br>*la recherche de métadonnées et de contenu</br>*la préservation à long terme avec la fourniture de PID</br>*l’accès à des outils et installations informatiques avancés</br>*une connexion fédérée et un accès facile</br>*une expertise pour les chercheurs</br>*l’accès à des services d’assistance, des centres de connaissances par pays, des comités</br>*l’accès à des tutoriels en ligne et de cas d’utilisation</br>*l’accès à des ateliers et séminaires, à des bourses de mobilité</br>*une expertise sur les plans de gestion des données</br></br>CLARIN offre ces possibilités, notamment au travers de différents centres (techniques ou de connaissance) implantés dans les différents pays membres et acteurs de l’animation des communautés nationales fédérées par l’ERIC.ommunautés nationales fédérées par l’ERIC.  +
  • '''CNRS Research Data''' est l'espace inst'''CNRS Research Data''' est l'espace institutionnel du CNRS de l'entrepôt Recherche Data Gouv.</br></br>Il propose aux personnels scientifiques des structures CNRS (chercheurs, ingénieurs, techniciens) et leurs collaborateurs, '''une solution de dépôt des données lorsqu’il n’existe pas d’entrepôt thématique ou institutionnel''' adapté à leur domaine de recherche. </br></br>CNRS Research Data met à disposition un espace dans lequel les déposants pourront partager et valoriser des données (légalement diffusables, achevées, documentées et réutilisables) produites ou coproduites dans le cadre de travaux de recherche soutenus par le CNRS.travaux de recherche soutenus par le CNRS.  +
  • '''CNRS Sciences humaines & sociales'''''CNRS Sciences humaines & sociales''' a pour mission de favoriser la pluridisciplinarité au sein des SHS et l’interdisciplinarité avec les autres sciences.</br> </br>CNRS Sciences humaines & sociales agit à travers les unités de recherche qu’il anime à la fois en convergence et en complémentarité avec ses partenaires. Il soutient plus particulièrement les approches méthodologiques suivantes : </br>* les études aréales, approches comparées, études globales ; </br>* les approches par les données : formalisation, quantification, modélisation et simulation ; </br>* les humanités numériques ; </br>* les études de genre.</br>Il joue un rôle spécifique dans les sciences de l’archéologie, l’anthropologie et les études classiques et il aide au développement des recherches dans les domaines de l’éducation, de la santé et des relations entre intelligence artificielle et SHS. relations entre intelligence artificielle et SHS.  +
  • '''CNRS Terre & Univers''' a pour miss'''CNRS Terre & Univers''' a pour mission d'élaborer, développer et coordonner les recherches d'ampleur nationale et internationale en '''astronomie''', '''sciences de la Terre''', de l''''océan''', de l''''atmosphère''' et de l''''espace'''.</br></br>CNRS Terre & Univers coordonne les services nationaux d’observation dans ses domaines de compétence, notamment par la mise en réseau des observatoires des sciences de l’Univers. Il contribue à la constitution de systèmes d’information permettant le stockage et la mise à disposition des données scientifiques collectées, notamment pour la communauté scientifique, leur valorisation ainsi que leur archivage.fique, leur valorisation ainsi que leur archivage.  +
  • '''CRUSOE''' est un '''outil d’aide en lig'''CRUSOE''' est un '''outil d’aide en ligne pour les entrepôts de données de recherche qui souhaitent préparer un dossier de demande de certification [https://www.coretrustseal.org/ CoreTrustSeal]''', ou simplement '''utiliser les critères de CoreTrustSeal pour mieux se connaitre et améliorer leurs pratiques'''.</br></br>La version actuelle de CRUSOE a été définie par le groupe de travail sur la certification des entrepôts et services de données commun au collège Données du Comité pour la science ouverte et à RDA France. Elle a été développée, avec le soutien financier du Fond national pour la science ouverte, par le service de données de l’Observatoire Midi-Pyrénées (SEDOO) sur la base d’une première version conçue par celui-ci pour répondre à un besoin naissant. Le SEDOO est également chargé de la maintenance de l’application. </br></br>Cet outil permet de s'auto-évaluer librement vis à vis de '''16 critères définis par la certification CoreTrustSeal'''. CRUSOE '''sauvegarde les différentes versions des rapports d'évaluation''' et permet ainsi de mesurer sa progression vis à vis de la certification. Les différents '''rapports d'évaluation peuvent être partagés''' entre collaborateurs.</br></br>Les informations renseignées sur les dossiers de certification et les fichiers déposés le sont de manière sécurisée. La sécurité comprend les aspects authentification et habilitation. aspects authentification et habilitation.  +
  • '''Callisto''' est une fondation abritée p'''Callisto''' est une fondation abritée par la Fondation UNIT (Université Numérique Ingénierie et Technologie). Soutenue par le Ministère de l’Enseignement Supérieur, de la Recherche, Callisto réunit le Réseau des Urfist (Unité Régionale de Formation à l’Information Scientifique et technique), le Réseau des CRFCB (Centres Régionaux de Formation aux Carrières des Bibliothèques) et l’Inist-CNRS (Institut de l’information scientifique et technique).</br></br>Callisto propose une plateforme de formation autour de la science ouverte, de l’information scientifique et technique et des métiers des bibliothèques. Vous y trouverez différents espaces de formation : ceux des partenaires (Urfist, Inist, CRFCB) mais aussi ceux de projets ou services connexes.</br></br>L’espace de formation '''Doranum''' propose des cours construits à partir des ressources pédagogiques du site Doranum. Il a pour objectif de compléter l’offre d’auto-formation en s’appuyant sur les fonctionnalités de la plateforme Moodle, avec en particulier la reconnaissance des compétences par l’attribution d’Open Badges.</br></br>L'espace de formation du '''Réseau des Urfist''' avec ces 7 Unités régionales de formation à l’information scientifique et technique forme les enseignants-chercheurs, doctorants et professionnels de l’information des établissements relevant de l’ESR.</br></br>L'espace de formation du centre de ressources '''Compétences GIS Réseau Urfist''' organise et développe des modules de formations généralistes et disciplinaires dédiés à l’écosystème Recherche Data Gouv.dédiés à l’écosystème Recherche Data Gouv.  +
  • '''CartoMundi est un site web public''' et'''CartoMundi est un site web public''' et '''une plateforme collaborative dédiés à la documentation cartographique destinée aux professionnels'''. Il complète les catalogues classiques en permettant de rechercher les documents par localisation géographique, et propose actuellement environ 75 000 références de documents cartographiques qui couvrent 195 pays et plus de 7500 reproductions en accès libre.</br></br>Organisé autour d’une interface cartographique géoréférencée, CartoMundi permet de naviguer dans le catalogue à partir d’un planisphère interactif. Pour chaque référence sélectionnée sur la base de l’espace qu’il représente effectivement, chaque internaute peut consulter sa notice et la liste des lieux de conservation des documents. Il peut aussi visualiser ceux qui ont été numérisés, voire, en commander des reproductions.</br></br>CartoMundi est fondé sur le partage des données et une mutualisation des compétences. Le catalogage de chaque document cartographique dans CartoMundi comporte deux aspects : sa description par une fiche bibliographique et son géoréférencement. C’est-à-dire l’enregistrement suivant un système homogène du périmètre de la zone géographique qu’il représente effectivement. </br></br>En favorisant l’échange et le partage des savoirs à l’échelle internationale, en matière de documentation cartographique, CartoMundi apporte une fluidité nouvelle entre les utilisateurs de cartes et les établissements qui les conservent. La visualisation du périmètre de chaque carte permet d’en renouveler les usages et de développer de nouvelles problématiques dans des disciplines aussi diverses que les sciences de la terre, l’archéologie, la géographie, l’économie, l’histoire des sciences / économique et sociale, etc.des sciences / économique et sociale, etc.  +
  • '''Cat.InDoRES''' propose un '''inventaire'''Cat.InDoRES''' propose un '''inventaire des bases de données et jeux de données sur la biodiversité, l'écologie, l’environnement et les sociétés'''. </br></br>Ce '''catalogue de métadonnées mutualisé''' regroupe les informations produites par l’ensemble des acteurs de la recherche collectées grâce au projet '''InDoRES''' (Inventaire des Données de Recherche en Environnement et Sociétés) et dans le cadre des réseaux des '''Observatoires Hommes-Milieux''' (OHM - LabEx DRIIHM) et des '''Zones Ateliers''' (RZA - eLTER). </br></br>Vous y trouverez des métadonnées de découverte standardisées sur les jeux et bases de données. Le projet est soutenu par le Muséum national d'Histoire naturelle et l'Institut Ecologie et Environnement du CNRS. Modéré par l'UAR BBEES et hébergé sur les serveurs du CNRS et du Centre de Calcul de CNRS Nucléaire & Particules, ce répertoire est réactualisé en permanence. Il vous permet d’accéder à la localisation de plus de 2500 références, et de vous mettre en relation directement avec les chercheurs et les responsables de ces signalements.heurs et les responsables de ces signalements.  +
  • '''Celluloid''' est une application dévelo'''Celluloid''' est une application développée par le consortium Canevas pour permettre d''''annoter, de commenter et d'analyser des documents audiovisuels numériques''' (films, séries, émissions ou des vidéos), seul ou en équipe.</br></br></br>C'est un '''projet open source en humanités numériques''' qui concernent les disciplines relevant des '''SHS''' : sociologie, sciences de l’information et de la communication, sciences de l’éducation, histoire, études cinématographiques, études théâtrales, etc.inématographiques, études théâtrales, etc.  +
  • '''Centre de traitement des données spatia'''Centre de traitement des données spatiales''', le '''FACe, Centre François Arago''' est une structure associée au laboratoire Astroparticule et Cosmologie (APC) et soutenue par l'IPGP au sein du Campus Spatial de l'Université Paris 7.</br></br>Le Centre, étroitement connecté au centre de calcul du CNRS de Lyon (CC-IN2P3), fournit un certain nombre de services à ses utilisateurs, tels que l'accès à des calculateurs, des routines d'analyse, des serveurs de stockage, la distribution de nouveaux logiciels d'analyse et surtout une équipe experte en informatique et la science des données.en informatique et la science des données.  +
  • '''Centre d’humanités numériques dédié à l'''Centre d’humanités numériques dédié à l’histoire de la justice''', le '''CLAMOR rassemble des spécialistes de l’histoire de la justice et de l’édition numérique''' et développe une politique de services numériques innovants visant à faciliter et à promouvoir l’histoire de la justice dans une perspective pluridisciplinaire.</br></br>Le CLAMOR édite et développe la plateforme [[Criminocorpus]] et met à disposition du public un ensemble cohérent de ressources et de services. La plateforme est composée de trois sites : un Musée d’histoire de la justice entièrement numérique qui propose des ressources sans équivalent pour explorer la justice et son histoire : des expositions, des visites, des collections, mais aussi des repères et des outils pour faciliter les études et les recherches, une revue scientifique et un blog d’actualités.</br></br>Le CLAMOR bénéficie d’une convention de partenariat avec les Archives nationales. partenariat avec les Archives nationales.  +
  • '''Chronocarto''' est un outil collaborati'''Chronocarto''' est un outil collaboratif ouvert à l’ensemble de la communauté scientifique dont l'objectif est de favoriser le '''moissonnage des données par le développement d’une gestion multimédia, par des moteurs de recherche et par la cartographie spatiale de ces données'''.</br></br>Il s’agit de les rendre facilement interrogeables et d’optimiser une vision simple de toute la documentation, où qu’elle soit stockée sur le net. Il renvoie donc à la fois au '''Web-SIG Chronocarto''' en distinguant les projets en fonction de leurs échelles mais aussi aux bases d’où sont extraites les données ainsi qu’à des outils complémentaires.</br></br>Il supporte actuellement plusieurs projets collaboratifs en ligne de '''Web-SIG''' sous la protection d’un mot de passe.G''' sous la protection d’un mot de passe.  +
  • '''Cirad Dataverse''' est '''un entrepôt i'''Cirad Dataverse''' est '''un entrepôt institutionnel''' de '''gestion''', de '''diffusion''' et de '''préservation des données scientifiques''' liées à '''l’agriculture''', l'''’alimentation''', '''l’environnement''' et à '''la gestion des territoires''' issues des activités de recherche menées au Cirad, basé sur la solution logicielle Dataverse.</br>Le site de [https://dataverse.cirad.fr/ Cirad Dataverse] propose des aides et des guides pour les déposants (scientifiques du Cirad et leurs partenaires) et les utilisateurs, ainsi que sur '''la gestion des données de recherche'''. </br>'''Les datasets''' contiennent les fichiers de données, de codes et de documentation ainsi que '''les métadonnées''' avec l’attribution '''d’un identifiant numérique unique DOI''' (Digital Object Identifier) pour la diffusion et '''la citation'''. L’accès à ces données de recherche peut être ouvert à tous ou restreint.rche peut être ouvert à tous ou restreint.  +
  • '''Climat HD''' a pour objectif de propose'''Climat HD''' a pour objectif de proposer une '''vision intégrée des évolutions du climat et de ses impacts''' depuis le début des mesures et jusqu'à l'horizon 2100, à l'échelle du pays et de ses régions.</br>On peut y trouver des diagnostics concernant l'évolution des températures et des précipitations en France et dans ses régions mais également concernant le changement climatique à travers certains phénomènes, comme les vagues de chaleur et les canicules, l'évolution des journées chaudes et des jours de gel, sur l'évolution des tempêtes et de la sécheresse. Il analyse aussi les impacts du changement climatique et propose ainsi un diagnostic plus sectoriel.</br></br>Deux spécificités à ce service : </br>* Proposer un diagnostic accessible à tous, avec un '''graphique simple et un message associé'''.</br>* Traiter le '''changement climatique passé et futur à l'échelle d'une région française'''. C'est une échelle appropriée pour poser un diagnostic accessible en l'état de l'art. diagnostic accessible en l'état de l'art.  +
  • '''Corebook APK''' est un outil collaborat'''Corebook APK''' est un outil collaboratif de collecte d'information de qualité sur des archives naturelles (métadonnées riches et précises) pour des prélèvements à caractère stratigraphique sédimentaire. </br></br>Cette application sert à alimenter le portail de la [[Cyber-Carothèque Nationale]].rothèque Nationale]].  +
  • '''Coriolis''' contribue au programme fran'''Coriolis''' contribue au programme français d’'''océanographie opérationnelle''', en offrant un accès unifié aux '''observations relevées in situ''' par des bateaux ou des systèmes autonomes fixes ou dérivants. Ces données peuvent être utilisées pour visualiser la structure et l’intensité de la masse d’eau à un instant t. Elles permettent de mieux surveiller et comprendre le fonctionnement de l'océan, de ses écosystèmes et de son rôle sur le climat. Coriolis est né d’une initiative conjointe des 7 instituts impliqués dans l’océanographie opérationnelle en France : l’[http://wwz.ifremer.fr/ Ifremer], le [http://www.cnrs.fr/ CNRS], l’[http://www.institut-polaire.fr/ IPEV], l’[http://www.ird.fr/ IRD], le [http://www.shom.fr/ SHOM], le [https://cnes.fr/ CNES] et [http://www.meteofrance.com/ Météo-France]. Les données sont '''vérifiées puis diffusées en ligne''' moins de 24h après leur acquisition. Coriolis propose ainsi à tout nouveau projet d’océanographie opérationnelle de :</br>* Mettre en forme ses données ;</br>* Contrôler la qualité des données en temps réel ;</br>* Diffuser les données à la communauté scientifique en océanographie opérationnelle ou à des utilisateurs individuels ;</br>* Garantir la découverte et l’accès aux données.</br></br>Actions Nationales d'Observation (ANO) et Services Nationaux d'Observation (SNO) labélisés. Centre de services et de données. Données multi-source (bouées, navires, flotteurs, spatial), multi-capteur, multi-temporelle et multi-type (série temporelle, images 2D/3D, série temporelle d'images 2D/3D) pour l' océanographie opérationnelle. Produits dérivés (Coriolis Ocean Data Set for Reanalysis - CORA, Grilles 2D/3D, World Deep Displacement - ANDRO, GOIs-ARGO). Services d'archivage, catalogage, et diffusion de données. Services de traitement de flux de données, de validation/qualification, d'analyse et de visualisation. Services et outils d'assimilation de données.Global Data Assembly Centre (GDAC) pour ARGO, OceanSites, GOSUD. Portail de données.O, OceanSites, GOSUD. Portail de données.  +
  • '''Criminocorpus''' est une '''plateforme '''Criminocorpus''' est une '''plateforme francophone de publication scientifique en ligne sur l’histoire de la justice, des crimes et des peines'''. Elle est composée de trois sites liés :</br>*le '''[https://criminocorpus.org/fr/ Musée d'histoire de la justice, des crimes et des peines]''' propose des expositions et des visites de lieux de justice. Il met également à disposition des données numériques (chronologies, des documents sources) et des instruments d’exploration pour faciliter les études et les recherches dans son domaine. </br>*la '''[https://journals.openedition.org/criminocorpus/ REVUE]''' est la première revue française de référence en libre accès sur l’histoire de la justice. Elle publie des articles rassemblés en dossiers thématiques. Francophone et plurilingue, elle couvre toutes les périodes historiques. Ses articles sont en lien avec d’autres ressources disponibles, notamment celles du Musée d'Histoire de la justice, des crimes et des peines.</br>*le '''[https://criminocorpus.hypotheses.org/ BLOG]''' présente une grande variété d'informations sur l’histoire de la justice, des crimes et des peines dans le domaine de la recherche, de l’édition et des manifestations culturelles.</br></br>Les repères et les outils proposent des données et des instruments d’exploration complémentaires visant à faciliter les études et les recherches avec, notamment, le [https://criminocorpus.org/fr/outils/guide-des-archives-1800-1958/consultation-du-guide/ Guide des archives judiciaires et pénitentiaires en France (1800-1958)] et la [https://criminocorpus.org/fr/outils/bibliographie/consultation/ Bibliographie d'histoire de la justice]./ Bibliographie d'histoire de la justice].  +
  • '''DARIAH''' - '''Digital Research Infrast'''DARIAH''' - '''Digital Research Infrastructure for the Arts and Humanities''' - est une infrastructure Européenne, labellisée comme ERIC (European Research Infrastructure Consortium) en 2014. DARIAH compte 19 membres et plusieurs partenaires en Europe et au delà. La France est l’un des membres fondateurs de l’ERIC DARIAH dont le siège social est à Paris. [[Huma-Num]] coordonne cette participation dans le cadre d’une feuille de route nationale de la France dans DARIAH.</br></br>La mission de DARIAH est de donner aux communautés de recherche les moyens de créer, de connecter et de partager des connaissances sur la culture et la société grâce à des méthodes numériques. Les activités et services se structurent de manière à garantir que les chercheurs en sciences humaines et sociales soient en mesure : </br>*d’évaluer l’impact de la technologie sur leurs travaux en toute connaissance de cause,</br>*d’accéder aux données, outils, services, connaissances et réseaux dont ils ont besoin de manière transparente et dans des environnements virtuels et humains riches en contexte</br>*de produire d’excellents contenus scientifiques réutilisables, visibles et durables grâce aux technologies numériques. A cette fin, un plan d’action stratégique a été élaboré.n plan d’action stratégique a été élaboré.  +
  • '''DAT'AMU, un des dispositifs de l'Atelie'''DAT'AMU, un des dispositifs de l'Atelier de la donnée d'Aix-Marseille Université.'''</br>La plateforme Recherche Data Gouv, est la plateforme nationale fédérée des données de recherche ouvertes et partagées mise au service de la communauté scientifique nationale.</br>Dans ce contexte, l’université Aix-Marseille prend part à l’offre nationale des Ateliers de la donnée, et s'est dotée d'un Guichet unique de la donnée de recherche, le GDsAM, pour renforcer les coopérations entre les différents métiers, services et composantes, mettre en place un réseau d’experts, et favoriser la valorisation de la production scientifique d’AMU en particulier.</br>L’université Aix-Marseille est partenaire de cette offre nationale et au sein de son propre Atelier de la donnée, ouvre son portail de données de la recherche pour sa communauté : '''DAT’AMU'''. </br>Les utilisateurs de '''DAT’AMU''' rendent ainsi leurs données publiques et sont assurés de possibilités de diffusion et de réutilisation élevées.</br>'''DAT'AMU, c'est quoi ?'''</br>La plateforme Recherche Data Gouv et à travers elle, la collection institutionnelle d'Aix-Marseille Université dédiée à l’entrepôt de données '''DAT’AMU'' permet :</br> _ la publication de jeux de données de recherche par leurs contributeurs </br> _la consultation, la visualisation ou le téléchargement de ces données par les utilisateurs et ré utilisateurs. </br>Toute utilisation de la plateforme Recherche Data Gouv est subordonnée au respect des conditions générales d’utilisation (CGU), et de la charte du déposant et contributeur. Il est obligatoire de contacter les administrateurs AMU avant tout dépôt. Les administrateurs sont susceptibles, le cas échéant, sans préavis de supprimer ou rendre impossible l'accès aux données n'ayant pas vocation à y être.</br></br>'''Soutien à l'enrichissement de vos données dans DAT'AMU'''.</br>L’Université Aix-Marseille propose une assistance à la curation et à la préservation des données et des métadonnées.</br>Accéder au [https://guichet-donnees.univ-amu.fr guichet unique]</br>GDsaM fait partie des '''projets d’ateliers de la donnée en cours de labellisation''' par l'écosystème [[Recherche Data Gouv]].</br></br>'''''Contactez-l'administrateur via l'adresse mail : Gdsam-contact@groupes.renater.fr'''''</br></br>Veillez à garantir au mieux la réutilisation de vos données et à bien les documenter. Un modèle de fichier "Lisez-moi" (Read-me) est à votre disposition en suivant le lien suivant : https://recherche.data.gouv.fr/fr/categorie/33/guide/modele-de-readme.</br></br>Vous souhaitez utiliser un jeu de données ? Reportez-vous à la licence pour connaître les conditions de réutilisation.connaître les conditions de réutilisation.  +
  • '''DATAZUR''' est l''''atelier de la donné'''DATAZUR''' est l''''atelier de la donnée''' d'[[Université Côte d’Azur|Université Côte d'Azur]]. Il s’articule autour de deux axes à destination de la communauté scientifique d’Université Côte d’Azur : </br></br>* Les '''formations''' sur l'ensemble du cycle de vie des données de la recherche proposées sont déclinées sous différents formats : des master Classes et formations doctorales pour les doctorants ainsi qu'une formation sur l’Open Science pour les nouveaux entrants à Université Côte d’Azur.</br></br>* L’'''accompagnement''' est proposé aux différentes étapes du cycle de vie de la donnée : </br># Rédaction d’un '''plan de gestion de données''' </br># Structuration des données </br># Gestion des jeux de données en lien avec des recherches en cours ou terminées </br># Session personnalisée sur une thématique et/ou un outil particulier en lien avec les données de la recherche </br># Archivage des données non diffusables </br># Préparation et dépôt des jeux de données diffusables sur un entrepôt disciplinaire ou sur l’entrepôt Université Côte d’Azur </br># Publication d’un '''DataPaper'''d’Azur # Publication d’un '''DataPaper'''  +
  • '''DBnomics''' est une plateforme gratuite'''DBnomics''' est une plateforme gratuite permettant '''d’agréger des données économiques''' accessibles au public fournies par des '''institutions statistiques nationales et internationales''', mais aussi par des '''chercheurs''' et des '''entreprises privée'''s. La valeur ajoutée est une base de données économiques unique avec une couverture large et systématique des données économiques.</br></br></br>Le champ de données couvert par DBnomics est '''l’économie dans son sens le plus large'''. Les données incluses couvrent également la population et les conditions de vie, l’environnement et l’énergie, l’agriculture, la finance, le commerce, etc. Les seules restrictions concernent pour l’instant la nature des données, qui doivent être des séries temporelles, et la fréquence des données, qui doit être quotidienne au maximum.</br></br></br>DBnomics est conçu comme un outil pour améliorer le processus de traitement des données en économie, avec trois objectifs : </br>* simplifier la recherche de données économiques</br>* fournir automatiquement des données actualisées</br>* permettre des résultats reproductibles. * permettre des résultats reproductibles.  +
  • '''DOREL''' ('''DOnnées de REcherche Lorra'''DOREL''' ('''DOnnées de REcherche Lorraines''') est l’'''entrepôt de données de l’Université de Lorraine'''. Il est basé sur la solution logicielle libre Dataverse. L’entrepôt institutionnel de données de la recherche offre aux chercheurs un outil pour '''conserver''' et '''diffuser leurs jeux de données de recherche finalisés''' (données tabulaires ou non, images, sons, relevés, vidéos…) avec l’attribution d’un '''identifiant numérique unique DOI''' (Digital Object Identifier) afin de signaler la production scientifique de l’Université.</br></br>Comme prévu dès le départ du projet, les jeux de données actuellement hébergés sur le portail local vont bientôt migrer vers l'entrepôt national, [[Recherche Data Gouv]]. A partir de janvier 2024, le nom DOREL ne désignera plus l'entrepôt local, mais l'espace institutionnel lorrain au sein de l'entrepôt national Recherche Data Gouv.</br></br>Début novembre 2023, le dépôt sera possible dans l'espace institutionnel lorrain de Recherche Data Gouv. </br>Début janvier 2024, le dépôt sera stoppé dans l'entrepôt local et les utilisateurs renvoyés vers l'espace institutionnel de l'entrepôt national. La durée de la migration est ensuite estimée à quelques mois, jusqu'en juin 2023.timée à quelques mois, jusqu'en juin 2023.  +
  • '''DUNE/PIP-II''', '''Deep Underground Neu'''DUNE/PIP-II''', '''Deep Underground Neutrino Experiment/Proton Improvement Plan II''', est un projet international de construction d''''un faisceau de neutrinos''' produit par '''un accélérateur de protons (PIP-II)''' qui sera localisé à Fermilab (Chicago, Etats-Unis). Son exploitation est prévue en 2028. </br></br>DUNE est une expérience qui '''étudiera les neutrinos et la désintégration du proton'''. Le faisceau de neutrinos de très haute intensité sera produit par un accélérateur de protons (PIP-II) et détecté 1 300 km plus loin par des détecteurs à argon-liquide de très grande dimension. Ces détecteurs seront enfouis dans un laboratoire sous-terrain à 1 500 m (Sanford Underground Research Facility SURF) situé aux Etats-Unis (South Dakota). </br></br>En France, six laboratoires de CNRS Nucléaire & Particules et du CEA sont impliqués dans la construction de l’accélérateur de protons PIP-II et au second module du détecteur lointain : </br>* Laboratoire astroparticules et cosmologie (APC, CNRS/Université de Paris/CEA/Observatoire de Paris);</br>* Institut de physique nucléaire de Lyon (IPNL, CNRS/Université Claude Bernard Lyon 1);</br>* Laboratoire d’Annecy de Physique des Particules (LAPP, CNRS/Université Savoie Mont Blanc);</br>* Laboratoire de physique des deux infinis Irène Joliot-Curie (IJCLab, CNRS/Université Paris-Saclay/ Université de Paris);</br>* Laboratoire de Physique Subatomique et de Cosmologie (LPSC, CNRS/Université Grenoble Alpes/ Grenoble INP);</br>* Institut de recherche sur les lois fondamentales de l'univers (Irfu, CEA-Saclay).</br></br>Les codes sources produits par l’infrastructure DUNE/PIP-II seront ouverts sur une forge logicielle https://github.com/DUNE/. Les données validées et décrites seront publiées sur un entrepôt de données.es seront publiées sur un entrepôt de données.  +
  • '''DYNALIT''' est un '''Service National d'''DYNALIT''' est un '''Service National d'Observation''' labellisé par le CNRS Terre & Univers (Institut National des Sciences de l’Univers) axé sur l'étude de la '''dynamique du littoral et du trait de côte'''. Impliquant 120 personnes (chercheurs, enseignants-chercheurs, doctorants, ingénieurs...), DYNALIT gère sur le long terme l’acquisition, la collecte et la mise en cohérence de données métrologiques de qualité de '''30 sites ateliers''' (côtes sableuses, falaises, embouchures) répartis sur toutes les façades maritimes françaises. DYNALIT a été pensé et organisé afin de '''nourrir''' à la fois la '''recherche académique''' et les '''stratégies de gestion du trait de côte'''. '''stratégies de gestion du trait de côte'''.  +
  • '''Data Nantes Université''' est l'espace institutionnel de l'établissement de l'entrepôt Recherche Data Gouv. L'entrepôt institutionnel est destiné aux jeux de données produits et collectés par la communauté scientifique de Nantes Université.  +
  • '''Data Paris 8''' est l'espace institutio'''Data Paris 8''' est l'espace institutionnel de l'Université Paris 8 de l''''entrepôt Recherche Data Gouv.''' </br></br>L'entrepôt institutionnel Data Paris 8 regroupe des données de la recherche produites par ou en collaboration avec des équipes de recherche de l’université. Il vise ainsi à accroître la visibilité et l’accessibilité des données de la recherche de Paris 8 ainsi qu’à assurer la valorisation, le partage et la préservation des données déposées.e et la préservation des données déposées.  +
  • '''Data UPPA''' est l''''espace institutio'''Data UPPA''' est l''''espace institutionnel de l'Université de de Pau et des Pays de l'Adour''' de l'entrepôt Recherche Data Gouv. L'entrepôt institutionnel est destiné aux jeux de données produits et collectés par la communauté scientifique de l'établissement. </br></br></br>La curation des données est organisée par le Centre de Services Partagés « CSP Numérique Recherche » dans le cadre du Plan pour la Science Ouverte de l’UPPA.du Plan pour la Science Ouverte de l’UPPA.  +
  • '''Data UT3''' est l''''espace institution'''Data UT3''' est l''''espace institutionnel de l'Université Toulouse III - Paul Sabatier''' sur l'entrepôt Recherche Data Gouv. Il rassemble les données de la recherche produites puis déposées par des équipes de recherche de l’université dans les domaines des sciences, santé, sport, technologie et ingénierie.</br></br></br>A l'Université Toulouse III, une '''équipe accompagne à la gestion des données ou au dépôt dans cet espace'''. Il est possible de les contacter à l'adresse suivante : dmp@univ-tlse3.fr. à l'adresse suivante : dmp@univ-tlse3.fr.  +
  • '''Data Univ Gustave Eiffel''' est '''l’en'''Data Univ Gustave Eiffel''' est '''l’entrepôt institutionnel de données de recherche''' de l’université.</br></br>Il est basé sur Dataverse, une application web open source pour '''la préservation''', '''la citation''' et '''la diffusion des données de recherche'''.</br></br>Les jeux de données (datasets) contiennent les fichiers de données, une documentation associée ainsi qu'un ensemble de métadonnées et un identifiant numérique unique DOI''' (Digital Object Identifier) pour faciliter l'accès et la citation des données. '''L’accès à ces données de recherche''' peut être '''ouvert''' ou '''restreint'''.</br></br>La communauté scientifique de l'Université Gustave Eiffel peut, d'ores et déjà, déposer ses jeux de données sur l’espace institutionnel de l’Université Gustave Eiffel de '''l’entrepôt-catalogue Recherche Data Gouv'''. En effet, les données déposées sur l'entrepôt de l'institution seront progressivement migrées sur l'espace institutionnel de Recherche Data Gouv. Le nom Data.Univ-Gustave-Eiffel ne désignera donc plus l'entrepôt local, mais l'espace institutionnel au sein de l'entrepôt national Recherche Data Gouv.e l'entrepôt national Recherche Data Gouv.  +
  • '''Data Université Clermont Auvergne''' est l''''espace institutionnel''' de l'Université Clermont Auvergne sur l'entrepôt Recherche Data Gouv.  +