Rechercher par propriété

Cette page fournit une simple interface de navigation pour trouver des entités décrites par une propriété et une valeur nommée. D’autres interfaces de recherche disponibles comprennent la page recherche de propriété, et le constructeur de requêtes « ask ».

Rechercher par propriété

Une liste de toutes les pages qui ont la propriété « Modération/CurationServices assurés par l'entrepôt ou personnels qui améliorent ou ajoutent de la valeur aux jeux de données déposés (vérification des métadonnées, contrôle scientifique des données, intervention humaine ou automatisée, etc.)  » avec la valeur « Processus de validation, tous les contributeurs sont curateurs ». Puisqu’il n’y a que quelques résultats, les valeurs proches sont également affichées.

⧼showingresults⧽

Voir (50 précédentes | 50 suivantes) (20 | 50 | 100 | 250 | 500)


    

Liste de résultats

  • Nakala  + (La modération générale est gérée par le coLa modération générale est gérée par le contrôle des accès des déposants et la vérification automatique d'une série de métadonnées.</br>Une modération humaine est réalisée sur demande, le jeu de données déposé ayant alors un label de qualité "Données publiques modérées."</br>https://documentation.huma-num.fr/nakala-qualite//documentation.huma-num.fr/nakala-qualite/)
  • Open Context  + (La modération très poussée portant aussi bien sur les métadonnées que sur la pertinence scientifique du jeu de données en vue de sa réutilisation (peer-reviewing) : https://opencontext.org/about/publishing)
  • Pangloss  + (La publication de toute donnée passe par uLa publication de toute donnée passe par une phase de contrôle où un administrateur de la plateforme va vérifier la bonne formation des données et métadonnées, le degré de complétude et de précision de la description, normalisera si besoin la forme des données et métadonnées et enrichira la description par l'alignement sur des référentiels. Enfin pour les données publiées, toute modification des données ou métadonnées passent également par ce même type de contrôle. Dans tous les cas (publication ou modification) un échange pourra intervenir pour demander des compléments d'information.ur demander des compléments d'information.)
  • GBIF France IPT  + (Le GBIF fournit une modération à 2 niveauxLe GBIF fournit une modération à 2 niveaux : </br>1) au niveau de l'entité publiant les données (publisher), par exemple le laboratoire de recherche. Le GBIF s'assure que l'entité fournit des données dans le périmètre du GBIF. Ce contrôle est opéré une seule fois, lors de la création de l'entité déposante.</br>2) au moment du dépôt de données lui-même. Selon l'outil de dépôt, la modération diffère.</br>Avec l'utilisation de l'IPT (Integrated Publishing Toolkit, outil facultatif mais recommandé), une validation technique du contenu des données selon le standard Darwin core est automatiquement réalisée : vérification des identifiants, de l'absence de doublons et de la complétude des métadonnées obligatoires et basiques. Le site GBIF.org opère ensuite la réconciliation géographique/taxonomique et ajoute un "flag" des occurrences.mique et ajoute un "flag" des occurrences.)
  • Quetelet PROGEDO Diffusion  + (Le dépôt de données est encadré par une convention qui engage les utilisateurs à respecter la citation, l’anonymat et la diffusion des données)
  • CNRS Research Data  + (Le dépôt est réalisé directement par le scientifique et une équipe de modérateurs l’accompagne ensuite depuis la curation du jeu de données jusqu’à sa publication.)
  • Banque de données du CDSP  + (Le dépôt est très encadré et se fait avec l'aide d'ingénieurs du CDSP qui gèrent la curation. Voir : https://cdsp.sciences-po.fr/fr/deposer-des-donnees)
  • CAZy  + (Les données soumises sont attribuées à un curateur responsable en fonction de son expertise particulière.)
  • SEANOE  + (Les dépôts sont modérés par le Sismer qui vérifie l'adéquation avec le champ disciplinaire de l'entrepôt)
  • Pofatu  + (Les jeux de données et métadonnées sont curés avant publication.)
  • Kinsources  + (Les jeux de données sont contrôlés et valiLes jeux de données sont contrôlés et validés par un conseil scientifique composé d'experts internationaux en anthropologie, en histoire et en analyse des réseaux sociaux. Ils ne sont publiés que s'ils répondent aux exigences de cohérence interne, de documentation et de conformité à la protection de la vie privée.nformité à la protection de la vie privée.)
  • COD  + (Les jeux de données sont modérés de manière automatisée (via checkCIF) et humaine.)
  • MédiHAL  + (Les métadonnées associées aux publications sont modérées par l'équipe HAL.)
  • HAL  + (Les métadonnées associées aux publications sont modérées par l'équipe HAL.)
  • SDC Epos-France  + (Les métadonnées des données sismologiques Les métadonnées des données sismologiques d’Epos-France sont intégralement construites par les producteurs de données, qui les soumettent au centre de données; ce dernier ne les modifie pas. Elles sont contrôlées lors de leur soumission afin de vérifier qu’elles répondent à des critères de qualité définis au sein d’Epos-France. En particulier toute métadonnée est validée par l’outil IRIS station-validator (liste des règles: https://github.com/iris-edu/stationxml-validator/wiki/StationXML-Validation-Rule-List).tor/wiki/StationXML-Validation-Rule-List).)
  • CND3D  + (Les métadonnées doivent être conformes au schéma déposé par le Consortium 3D SHS. Le contrôle de la qualité des métadonnées est assuré par utilisation obligatoire d'aLTAG3D. Échanges entre le CND3D et les déposants au cours du processus.)
  • OPGC: Entrepôt  + (Les métadonnées et les jeux de données sont curés selon les principes FAIR.)
  • ENA  + (Les métadonnées sont modérées automatiquement via une checklist, à laquelle s'ajoute une vérification manuelle selon les cas. Il y a une prise de contact en direct avec les contributeurs dans certains cas.)
  • RELMIN  + (Les propositions de contributions doivent être envoyées à nicolas.stefanni@univ-nantes.fr afin d'en évaluer la pertinence et la qualité)
  • BASECOL  + (Les soumissions de nouveaux ensembles de coefficients de taux de collision publiés sont évaluées de manière critique avant d'être incluses dans la base de données.)
  • NOMAD  + (Lors du dépôt, le chercheur doit télécharger un fichier dans un format reconnu qui contient les métadonnées. A partir de ce fichier, un processus automatique permet d’extraire les métadonnées.)
  • DAT'AMU  + (L’Université Aix-Marseille via le Guichet unique de la donnée de recherche, le GDsAM, propose une assistance à la curation et à la préservation des données et des métadonnées)
  • MorphoSource  + (Morphosource dispose d'un procédure d'examMorphosource dispose d'un procédure d'examen et de révision des dépôts, pilotée par l'administrateur. Les types de formats de données acceptés et d'exigences minimales pour les métadonnées sont encadrées afin de garantir que toutes les données sont interprétables et lisibles. Les fichiers font l’objet d’un contrôle automatisé en vue de détecter les erreurs et les formats des données fournies. Pour plus d’informations : https://duke.atlassian.net/wiki/spaces/MD/overview?homepageId=35422252iki/spaces/MD/overview?homepageId=35422252)
  • Didomena  + (Pas de curation systématique, seulement pour les gros volumes. Possibilité de se faire accompagner en amont du dépôt par le Pôle Numérique Recherche (EHESS))
  • PlantRNA  + (Pour minimiser le nombre de faux positifs, une curation manuelle des listes de gènes ARNt extraites de chaque génome a été effectuée.)
  • Norine  + (Processus de validation, tous les contributeurs sont curateurs)
  • RCSB PDB  + (Quatre niveaux de validation sont mis en place : préparation, dépôt, annotation, publication. https://www.wwpdb.org/validation/FAQs)
  • IDOC-DATA  + (Selon les jeux de données, le niveau de cuSelon les jeux de données, le niveau de curation peut varier. Compte tenu des origines très différentes des données, des communautés spécialisées de l'entrepôt, les différents contrats de mise à disposition des données, l'implication de l'Institut dans le traitement des données et leur date d'entrée, l'entrepôt diffuse des données avec deux niveaux de curation : enhanced quality (conversion vers de nouveaux formats, amélioration de la documentation) et Data-level curation (enhanced quality mais avec une vérification supplémentaire des données déposées pour en assurer l'exactitude).</br></br>Un document est construit avec le fournisseur de données avant d'héberger et de diffuser un nouveau jeu de données. Il sert de référence pour la mise en place d'un nouveau service de données à IDOC-DATA. Il explique et détaille les éléments nécessaires à la construction et à la fourniture de celui-ci.</br></br>Le processus implique une interaction itérative entre le client et le responsable technique d'IDOC-DATA jusqu'à ce que toutes les questions trouvent une réponse sans ambiguïté. Ce document peut ensuite être utilisé comme plan de gestion des données. Au cours de ce processus, la curation appropriée est déterminée et appliquée afin de répondre aux normes ergonomiques des portails IDOC-DATA.ormes ergonomiques des portails IDOC-DATA.)
  • MEDOC  + (Selon les jeux de données, le niveau de cuSelon les jeux de données, le niveau de curation peut varier. Compte tenu des origines très différentes des données, des communautés spécialisées de l'entrepôt, les différents contrats de mise à disposition des données, l'implication de l'Institut dans le traitement des données et leur date d'entrée, l'entrepôt diffuse des données avec deux niveaux de curation : enhanced quality (conversion vers de nouveaux formats, amélioration de la documentation) et Data-level curation (enhanced quality mais avec une vérification supplémentaire des données déposées pour en assurer l'exactitude).</br></br>Un document est construit avec le fournisseur de données avant d'héberger et de diffuser un nouveau jeu de données. Il sert de référence pour la mise en place d'un nouveau service de données à IDOC-DATA. Il explique et détaille les éléments nécessaires à la construction et à la fourniture de celui-ci.</br></br>Le processus implique une interaction itérative entre le client et le responsable technique d'IDOC-DATA jusqu'à ce que toutes les questions trouvent une réponse sans ambiguïté. Ce document peut ensuite être utilisé comme plan de gestion des données. Au cours de ce processus, la curation appropriée est déterminée et appliquée afin de répondre aux normes ergonomiques des portails IDOC-DATA.ormes ergonomiques des portails IDOC-DATA.)
  • OpenNeuro  + (Un contrôle automatique du jeu de données au format BIDS puis un contrôle des métadonnées associées sont effectués : https://docs.openneuro.org/user_guide.html#uploading-your-dataset)
  • IDR  + (Un délai de 3 semaines est nécéssaire entre la soumission et la publication pour effectuer une modération. Des échanges entre les modérateurs et les auteurs sont fréquents. https://idr.openmicroscopy.org/about/submission.html)
  • NeuroMorpho  + (Un fichier de métadonnées fourni est à renseigner en complément des données envoyées. Les modérateurs font une vérification des données et complètent les annotations pour l'indexation dans leur base de données puis mettent en ligne le jeu de données.)
  • CSD  + (Un logiciel de curation vérifie les informUn logiciel de curation vérifie les informations dans certains champs CIF et toutes les entrées sont curées manuellement.</br>https://www.ccdc.cam.ac.uk/discover/blog/enhancing-the-discoverability-and-value-of-crystal-structural-data-the-csd-data-curation-process/ctural-data-the-csd-data-curation-process/)
  • MassBank  + (Un modération automatique est effectuée. En effet, un format spécifique est imposé pour le dépôt. La cohérence sémantique et des métadonnées est ensuite vérifiée à la soumission par un logiciel de validation.)
  • IoChem-BD  + (Un modération automatique est effectuée. En effet, le dépôt est obligatoirement constitué de fichiers d'entrée ou de sortie de suites de programmes standards, très utilisées par la communauté. Ils sont automatiquement ingérés et traduits par l'entrepôt.)
  • Sextant  + (Un ou plusieurs référents par catalogue pour la modération car les données déposées sont insérées dans des catalogues (qui correspondent à des projets, des labos, des organismes, etc.).)
  • Software Heritage  + (Un travail de "curation" des dépôts est pris en charge par les équipes de la modération sur HAL.)
  • EBRAINS Knowledge Graph  + (Une curation des jeux de données est effectuée par l'équipe d'EBRAINS : https://files.ebrains.eu/file/e4b05476-d2f0-49c2-8b45-41f9c317892e/EBRAINS_Data_Provision_Protocol_dfe0dcb104.pdf)
  • GnpIS  + (Une curation manuelle est effectuée pour certaines données, telles que les génomes. Elles sont également annotées sur le plan fonctionnel.)
  • StrendaDB  + (Une modération automatique est effectuée selon le modèle de métadonnées proposé par l'entrepôt. )
  • NeMO Archive  + (Une modération automatique est effectuée à partir du versement de fichiers tsv : https://nemoarchive.org/resources/data-submission#submitting-a-file-manifest)
  • PRIME-DE  + (Une modération automatique est effectuée pour vérifier l'obligation d'organisation du jeu de données selon le standard de nommage des fichiers et répertoires "BIDS" ; métadonnées techniques basiques, métriques de contrôle qualité des images.)
  • ORD  + (Une modération automatique et manuelle est effectuée lors du dépôt)
  • DOREL  + (Une modération des dépôts est assurée conjUne modération des dépôts est assurée conjointement par l'équipe de l'entrepôt (Direction de la Documentation, Direction du numérique, MSH Lorraine) et un réseau de curateurs directement positionnés dans les laboratoires et capables de travailler au plus près du terrain.les de travailler au plus près du terrain.)
  • Ortolang  + (Une modération manuelle des métadonnées et des formats de fichiers est effectuée (https://www.ortolang.fr/fr/deposer/))
  • QDR  + (Une modération manuelle est effectuée pour chaque dépôt. Une documentation spécifique (data narrative) pour recontextualiser les données d'enquête collectées est mise en place.)
  • EaSy Data  + (Une organisation interne a été mise en plaUne organisation interne a été mise en place avec des modérateurs experts thématiques des pôles de données pour assurer la modération/curation des jeux de données et des référents des pôles de données et des ateliers de la donnée pour permettre une amélioration des pratiques. permettre une amélioration des pratiques.)
  • CoCoON  + (Une première étape de modération consiste Une première étape de modération consiste à vérifier que le déposant fait bien partie de la communauté. La publication de toute donnée passe par une phase de contrôle où un administrateur de la plateforme va vérifier la bonne formation des données et métadonnées, le degré de complétude et de précision de la description, normalisera si besoin la forme des données et métadonnées et enrichira la description par l'alignement sur des référentiels. Enfin pour les données publiées, toute modification des données ou métadonnées passent également par ce même type de contrôle. Dans tous les cas (publication ou modification) un échange pourra intervenir pour demander des compléments d'information.ur demander des compléments d'information.)
  • ELAR  + (Une vérification des métadonnées est effectuée et une demande de corrections est faite si nécessaire. La conformité du jeu de données à la politique d'ELAR est également vérifiée lors du dépôt.)
  • LAUDATIO  + (Une vérification des métadonnées est effectuée.)
  • Chemotion  + (Une équipe de 10 reviewers assure la modération "manuelle" des données. Il y a aussi une modération automatique pour certaines données spectrales. https://chemotion.net/docs/repo/workflow/review)