Attribut:Modération/Curation (Pratique la curation)

De Cat OPIDoR

Cette propriété est de type Texte.

Services assurés par l'entrepôt ou personnels qui améliorent ou ajoutent de la valeur aux jeux de données déposés (vérification des métadonnées, contrôle scientifique des données, intervention humaine ou automatisée, etc.) (fr) Curatorial services performed by repository functionality or personnel that enhance or otherwise add value to datasets and create purposeful collections of data. (en)

Modération/Curation (fr) Moderation/Curation (en)

Affichage de 20 pages utilisant cette propriété.
N
La modération générale est gérée par le contrôle des accès des déposants et la vérification automatique d'une série de métadonnées. Une modération humaine est réalisée sur demande, le jeu de données déposé ayant alors un label de qualité "Modéré." L’évaluation de la qualité d’une donnée porte sur des critères documentaires indispensables pour contribuer à son intelligibilité. Ils sont définis dans une grille de modération mise à disposition par Huma-Num à un réseau de modérateurs NAKALA. Cette grille est composée de critères obligatoires pour la validation de la qualité du dépôt et de critères complémentaires à adapter selon leur applicabilité et leur pertinence. Le processus de modération offre aussi l’occasion de créer des échanges entre le déposant et le modérateur pour améliorer l’exposition et la réutilisation potentielle des données. Cette modération n’a pas de caractère obligatoire et n’empêche pas le déposant de publier une donnée. https://documentation.huma-num.fr/nakala-qualite/  +
O
La modération très poussée portant aussi bien sur les métadonnées que sur la pertinence scientifique du jeu de données en vue de sa réutilisation (peer-reviewing) : https://opencontext.org/about/publishing  +
P
La publication de toute donnée passe par une phase de contrôle où un administrateur de la plateforme va vérifier la bonne formation des données et métadonnées, le degré de complétude et de précision de la description, normalisera si besoin la forme des données et métadonnées et enrichira la description par l'alignement sur des référentiels. Enfin pour les données publiées, toute modification des données ou métadonnées passent également par ce même type de contrôle. Dans tous les cas (publication ou modification) un échange pourra intervenir pour demander des compléments d'information.  +
G
Le GBIF fournit une modération à 2 niveaux : 1) au niveau de l'entité publiant les données (publisher), par exemple le laboratoire de recherche. Le GBIF s'assure que l'entité fournit des données dans le périmètre du GBIF. Ce contrôle est opéré une seule fois, lors de la création de l'entité déposante. 2) au moment du dépôt de données lui-même. Selon l'outil de dépôt, la modération diffère. Avec l'utilisation de l'IPT (Integrated Publishing Toolkit, outil facultatif mais recommandé), une validation technique du contenu des données selon le standard Darwin core est automatiquement réalisée : vérification des identifiants, de l'absence de doublons et de la complétude des métadonnées obligatoires et basiques. Le site GBIF.org opère ensuite la réconciliation géographique/taxonomique et ajoute un "flag" des occurrences.  +
Q
Le dépôt de données est encadré par une convention qui engage les utilisateurs à respecter la citation, l’anonymat et la diffusion des données  +
C
Le dépôt est réalisé directement par le scientifique et une équipe de modérateurs l’accompagne ensuite depuis la curation du jeu de données jusqu’à sa publication.  +
B
Le dépôt est très encadré et se fait avec l'aide d'ingénieurs du CDSP qui gèrent la curation. Voir : https://cdsp.sciences-po.fr/fr/deposer-des-donnees  +
C
Les données soumises sont attribuées à un curateur responsable en fonction de son expertise particulière.  +
S
Les dépôts sont modérés par le Sismer qui vérifie l'adéquation avec le champ disciplinaire de l'entrepôt  +
P
Les jeux de données et métadonnées sont curés avant publication.  +
K
Les jeux de données sont contrôlés et validés par un conseil scientifique composé d'experts internationaux en anthropologie, en histoire et en analyse des réseaux sociaux. Ils ne sont publiés que s'ils répondent aux exigences de cohérence interne, de documentation et de conformité à la protection de la vie privée.  +
C
Les jeux de données sont modérés de manière automatisée (via checkCIF) et humaine.  +
M
Les métadonnées associées aux publications sont modérées par l'équipe HAL.  +
H
Les métadonnées associées aux publications sont modérées par l'équipe HAL.  +
S
Les métadonnées des données sismologiques d’Epos-France sont intégralement construites par les producteurs de données, qui les soumettent au centre de données; ce dernier ne les modifie pas. Elles sont contrôlées lors de leur soumission afin de vérifier qu’elles répondent à des critères de qualité définis au sein d’Epos-France. En particulier toute métadonnée est validée par l’outil IRIS station-validator (liste des règles: https://github.com/iris-edu/stationxml-validator/wiki/StationXML-Validation-Rule-List).  +
C
Les métadonnées doivent être conformes au schéma déposé par le Consortium 3D SHS. Le contrôle de la qualité des métadonnées est assuré par utilisation obligatoire d'aLTAG3D. Échanges entre le CND3D et les déposants au cours du processus.  +
O
Les métadonnées et les jeux de données sont curés selon les principes FAIR.  +
E
Les métadonnées sont modérées automatiquement via une checklist, à laquelle s'ajoute une vérification manuelle selon les cas. Il y a une prise de contact en direct avec les contributeurs dans certains cas.  +
R
Les propositions de contributions doivent être envoyées à nicolas.stefanni@univ-nantes.fr afin d'en évaluer la pertinence et la qualité  +
B
Les soumissions de nouveaux ensembles de coefficients de taux de collision publiés sont évaluées de manière critique avant d'être incluses dans la base de données.  +