Informations

Quel test statistique recommanderiez-vous pour comparer deux méthodes d'échantillonnage du comportement animal ?

Quel test statistique recommanderiez-vous pour comparer deux méthodes d'échantillonnage du comportement animal ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je fais un laboratoire où je compare la méthode de balayage et la méthode animale focale. Chaque méthode me donnera les éléments suivants :

  • Méthode de balayage : fréquence d'occurrence pour chaque comportement (%),
  • méthode animale focale : les fréquences d'occurrence (%), ainsi que la durée pour chaque comportement.

Je pensais à un test chi-carré ou à un test t d'une manière ou d'une autre, mais je ne sais pas quoi faire ni comment les formater. Dois-je en quelque sorte comparer les fréquences d'occurrence?

Je ne sais pas si cette information est utile, mais j'utilise normalement R pour mon test statistique mais je n'ai jamais utilisé mes propres données, seulement des exemples de données. J'allais enregistrer mes données dans excel et les importer dans R. Merci d'avance.


Sélection d'une taille d'échantillon pour les études à mesures répétées

De nombreux chercheurs privilégient les conceptions à mesures répétées car elles permettent la détection de changements intra-individuels au fil du temps et ont généralement une puissance statistique plus élevée que les conceptions transversales. Cependant, la pléthore d'entrées nécessaires pour les conceptions de mesures répétées peut rendre difficile la sélection de la taille de l'échantillon, une étape critique dans la conception d'une étude réussie. En utilisant une étude sur la douleur dentaire comme exemple de conduite, nous fournissons des conseils pour sélectionner une taille d'échantillon appropriée pour tester une interaction temps par traitement pour les études avec des mesures répétées. Nous décrivons comment (1) rassembler les entrées requises pour le calcul de la taille de l'échantillon, (2) choisir le logiciel approprié pour effectuer le calcul et (3) aborder les considérations pratiques telles que les données manquantes, les objectifs multiples et les covariables continues.


Méthodes d'échantillonnage à partir d'une population

Il serait normalement peu pratique d'étudier une population entière, par exemple lors d'une enquête par questionnaire. L'échantillonnage est une méthode qui permet aux chercheurs de déduire des informations sur une population en fonction des résultats d'un sous-ensemble de la population, sans avoir à enquêter sur chaque individu. Réduire le nombre d'individus dans une étude réduit le coût et la charge de travail, et peut faciliter l'obtention d'informations de haute qualité, mais cela doit être mis en balance avec un échantillon suffisamment grand et suffisamment puissant pour détecter une véritable association. (Le calcul de la taille de l'échantillon est traité dans la section 1B (statistiques) du programme de la partie A.)

Si un échantillon doit être utilisé, quelle que soit la méthode choisie, il est important que les individus sélectionnés soient représentatifs de l'ensemble de la population. Cela peut impliquer de cibler spécifiquement les groupes difficiles à atteindre. Par exemple, si la liste électorale d'une ville était utilisée pour identifier les participants, certaines personnes, comme les sans-abri, ne seraient pas inscrites et donc exclues de l'étude par défaut.

Il existe plusieurs techniques d'échantillonnage différentes et elles peuvent être subdivisées en deux groupes : l'échantillonnage probabiliste et l'échantillonnage non probabiliste. Dans l'échantillonnage probabiliste (aléatoire), vous commencez avec une base de sondage complète de tous les individus éligibles parmi lesquels vous sélectionnez votre échantillon. De cette façon, toutes les personnes éligibles ont une chance d'être choisies pour l'échantillon, et vous serez plus en mesure de généraliser les résultats de votre étude. Les méthodes d'échantillonnage probabiliste ont tendance à être plus longues et plus coûteuses que l'échantillonnage non probabiliste. Dans l'échantillonnage non aléatoire (non aléatoire), vous ne commencez pas avec une base de sondage complète, de sorte que certains individus n'ont aucune chance d'être sélectionnés. Par conséquent, vous ne pouvez pas estimer l'effet de l'erreur d'échantillonnage et il existe un risque important de se retrouver avec un échantillon non représentatif qui produit des résultats non généralisables. Cependant, les méthodes d'échantillonnage non probabiliste ont tendance à être moins chères et plus pratiques, et elles sont utiles pour la recherche exploratoire et la génération d'hypothèses.

Méthodes d'échantillonnage probabiliste

1. Échantillonnage aléatoire simple

Dans ce cas, chaque individu est choisi entièrement par hasard et chaque membre de la population a une chance égale, ou probabilité, d'être sélectionné. Une façon d'obtenir un échantillon aléatoire consiste à attribuer un numéro à chaque individu d'une population, puis à utiliser une table de nombres aléatoires pour décider quels individus inclure. 1 Par exemple, si vous avez une base de sondage de 1 000 individus, étiquetés de 0 à 999, utilisez des groupes de trois chiffres de la table de nombres aléatoires pour prélever votre échantillon. Ainsi, si les trois premiers nombres de la table de nombres aléatoires étaient 094, sélectionnez l'individu étiqueté « 94 », et ainsi de suite.

Comme pour toutes les méthodes d'échantillonnage probabiliste, l'échantillonnage aléatoire simple permet de calculer l'erreur d'échantillonnage et réduit le biais de sélection. Un avantage spécifique est qu'il s'agit de la méthode d'échantillonnage probabiliste la plus simple. Un inconvénient de l'échantillonnage aléatoire simple est que vous ne pouvez pas sélectionner suffisamment d'individus avec votre caractéristique d'intérêt, surtout si cette caractéristique est rare. Il peut également être difficile de définir une base de sondage complète et peu pratique de les contacter, surtout si différentes formes de contact sont nécessaires (e-mail, téléphone, courrier) et que vos unités d'échantillonnage sont dispersées sur une large zone géographique.

2. Échantillonnage systématique

Les individus sont sélectionnés à intervalles réguliers dans la base de sondage. Les intervalles sont choisis pour assurer une taille d'échantillon adéquate. Si vous avez besoin d'une taille d'échantillon m d'une population de taille X, vous devez sélectionner chaque x/n e individu pour l'échantillon. Par exemple, si vous voulez une taille d'échantillon de 100 pour une population de 1000, sélectionnez tous les 1000/100 = 10 e membre de la base de sondage.

L'échantillonnage systématique est souvent plus pratique que l'échantillonnage aléatoire simple, et il est facile à administrer. Cependant, cela peut également conduire à un biais, par exemple s'il existe des modèles sous-jacents dans l'ordre des individus dans la base de sondage, de sorte que la technique d'échantillonnage coïncide avec la périodicité du modèle sous-jacent. À titre d'exemple hypothétique, si un groupe d'étudiants était échantillonné pour obtenir leur opinion sur les installations du collège, mais que la liste centrale de tous les étudiants du service des dossiers étudiants était organisée de telle sorte que le sexe des étudiants alternait entre homme et femme, en choisissant un intervalle pair ( ex. tous les 20 e élèves) donnerait un échantillon de tous les garçons ou de toutes les filles. Alors que dans cet exemple, le biais est évident et devrait être facilement corrigé, ce n'est pas toujours le cas.

3. Échantillonnage stratifié

Dans cette méthode, la population est d'abord divisée en sous-groupes (ou strates) qui partagent tous une caractéristique similaire. Il est utilisé lorsque nous pouvons raisonnablement nous attendre à ce que la mesure d'intérêt varie entre les différents sous-groupes et que nous voulons assurer la représentation de tous les sous-groupes. Par exemple, dans une étude sur les résultats d'un AVC, nous pouvons stratifier la population par sexe, afin d'assurer une représentation égale des hommes et des femmes. L'échantillon de l'étude est ensuite obtenu en prenant des tailles d'échantillons égales dans chaque strate. Dans l'échantillonnage stratifié, il peut également être approprié de choisir des tailles d'échantillon non égales dans chaque strate. Par exemple, dans une étude des résultats de santé du personnel infirmier dans un comté, s'il y a trois hôpitaux avec chacun un nombre différent de personnel infirmier (l'hôpital A a 500 infirmières, l'hôpital B en a 1000 et l'hôpital C en a 2000), alors il être approprié de choisir les numéros d'échantillon de chaque hôpital proportionnellement (par exemple 10 de l'hôpital A, 20 de l'hôpital B et 40 de l'hôpital C). Cela garantit une estimation plus réaliste et précise des résultats de santé des infirmières dans tout le comté, alors qu'un échantillonnage aléatoire simple surreprésenterait les infirmières des hôpitaux A et B. Le fait que l'échantillon a été stratifié doit être pris en compte au stade de l'analyse.

L'échantillonnage stratifié améliore l'exactitude et la représentativité des résultats en réduisant le biais d'échantillonnage. Cependant, cela nécessite la connaissance des caractéristiques appropriées de la base de sondage (dont les détails ne sont pas toujours disponibles), et il peut être difficile de décider sur quelle(s) caractéristique(s) stratifier.

4. Échantillonnage en grappes

Dans un échantillon en grappes, des sous-groupes de la population sont utilisés comme unité d'échantillonnage, plutôt que des individus. La population est divisée en sous-groupes, appelés grappes, qui sont sélectionnés au hasard pour être inclus dans l'étude. Les clusters sont généralement déjà définis, par exemple les cabinets de médecins généralistes individuels ou les villes pourraient être identifiés comme des clusters. Dans l'échantillonnage en grappes à un degré, tous les membres des grappes choisies sont ensuite inclus dans l'étude. Dans l'échantillonnage en grappes à deux degrés, une sélection d'individus de chaque grappe est ensuite sélectionnée au hasard pour l'inclusion. Le regroupement doit être pris en compte dans l'analyse. L'enquête générale sur les ménages, qui est menée chaque année en Angleterre, est un bon exemple d'échantillon en grappes (à un degré). Tous les membres des ménages sélectionnés (grappes) sont inclus dans l'enquête. 1

L'échantillonnage en grappes peut être plus efficace que l'échantillonnage aléatoire simple, en particulier lorsqu'une étude se déroule sur une vaste région géographique. Par exemple, il est plus facile de contacter de nombreuses personnes dans quelques cabinets de médecins généralistes que quelques personnes dans de nombreux cabinets de médecins généralistes différents. Les inconvénients incluent un risque accru de biais, si les grappes choisies ne sont pas représentatives de la population, ce qui entraîne une erreur d'échantillonnage accrue.

Méthodes d'échantillonnage non probabiliste

1. Échantillonnage pratique

L'échantillonnage de commodité est peut-être la méthode d'échantillonnage la plus simple, car les participants sont sélectionnés en fonction de leur disponibilité et de leur volonté de participer. Des résultats utiles peuvent être obtenus, mais les résultats sont sujets à un biais important, car ceux qui se portent volontaires pour participer peuvent être différents de ceux qui choisissent de ne pas le faire (biais des volontaires), et l'échantillon peut ne pas être représentatif d'autres caractéristiques, telles que l'âge ou le sexe. Remarque : le biais volontaire est un risque de toutes les méthodes d'échantillonnage non probabilistes.

2. Échantillonnage de quotas

Cette méthode d'échantillonnage est souvent utilisée par les chercheurs de marché. Les enquêteurs reçoivent un quota de sujets d'un type spécifié pour tenter de recruter. Par exemple, on peut demander à un enquêteur de sortir et de sélectionner 20 hommes adultes, 20 femmes adultes, 10 adolescentes et 10 adolescents afin qu'ils puissent les interroger sur leur visionnage de la télévision. Idéalement, les quotas choisis représenteraient proportionnellement les caractéristiques de la population sous-jacente.

Bien que cela présente l'avantage d'être relativement simple et potentiellement représentatif, l'échantillon choisi peut ne pas être représentatif d'autres caractéristiques qui n'ont pas été prises en compte (une conséquence de la nature non aléatoire de l'échantillonnage). 2

3. Échantillonnage par jugement (ou raisonné)

Également appelée échantillonnage sélectif ou subjectif, cette technique repose sur le jugement du chercheur lorsqu'il choisit à qui demander de participer. Les chercheurs peuvent ainsi implicitement choisir un échantillon « représentatif » en fonction de leurs besoins, ou s'adresser spécifiquement à des individus présentant certaines caractéristiques. Cette approche est souvent utilisée par les médias lorsqu'ils sollicitent l'opinion du public et dans les recherches qualitatives.

L'échantillonnage par jugement a l'avantage d'être rapide et rentable à effectuer tout en donnant lieu à une gamme de réponses (particulièrement utile dans la recherche qualitative). Cependant, en plus du biais des volontaires, il est également sujet à des erreurs de jugement de la part du chercheur et les résultats, bien que potentiellement larges, ne seront pas nécessairement représentatifs.

4. Échantillonnage boule de neige

Cette méthode est couramment utilisée en sciences sociales pour enquêter sur des groupes difficiles à atteindre. Les sujets existants sont invités à désigner d'autres sujets qu'ils connaissent, de sorte que la taille de l'échantillon augmente comme une boule de neige roulante. Par exemple, lors de la réalisation d'une enquête sur les comportements à risque parmi les utilisateurs de drogues par voie intraveineuse, les participants peuvent être invités à désigner d'autres utilisateurs à interroger.

L'échantillonnage en boule de neige peut être efficace lorsqu'une base de sondage est difficile à identifier. Cependant, en sélectionnant des amis et des connaissances de sujets déjà enquêtés, il existe un risque important de biais de sélection (choisir un grand nombre de personnes ayant des caractéristiques ou des opinions similaires à l'individu initial identifié).

Biais dans l'échantillonnage

Il existe cinq sources potentielles importantes de biais qui doivent être prises en compte lors de la sélection d'un échantillon, quelle que soit la méthode utilisée. Un biais d'échantillonnage peut être introduit lorsque : 1

  1. Toutes les règles d'échantillonnage convenues à l'avance sont déviées de
  2. Les personnes dans les groupes difficiles à atteindre sont omises
  3. Les individus sélectionnés sont remplacés par d'autres, par exemple s'ils sont difficiles à contacter
  4. Il y a de faibles taux de réponse
  5. Une liste obsolète est utilisée comme base de sondage (par exemple, si elle exclut les personnes qui ont récemment déménagé dans une région)

D'autres problèmes potentiels liés aux stratégies d'échantillonnage sont traités au chapitre 8 de cette section («Sources de variation, sa mesure et son contrôle”).


Directives pour l'industrie et le personnel de la FDA Directives statistiques sur la communication des résultats des études évaluant les tests de diagnostic

Ce guide représente la réflexion actuelle de la Food and Drug Administration (FDA) sur ce sujet. Il ne crée ni ne confère aucun droit pour ou sur toute personne et n'a pas pour effet de lier la FDA ou le public. Vous pouvez utiliser une approche alternative si l'approche satisfait aux exigences des lois et règlements applicables. Si vous souhaitez discuter d'une approche alternative, contactez le personnel de la FDA responsable de la mise en œuvre de ce guide. Si vous ne pouvez pas identifier le personnel approprié de la FDA, appelez le numéro approprié indiqué sur la page de titre de ce guide.

1. Origines

Ce guide vise à décrire certaines pratiques statistiquement appropriées pour rapporter les résultats de différentes études évaluant les tests de diagnostic et à identifier certaines pratiques inappropriées courantes. Les recommandations de ce guide concernent les tests de diagnostic dont le résultat final est qualitatif (même si la mesure sous-jacente est quantitative). Nous portons une attention particulière à la pratique appelée résolution discordante et ses problèmes associés.

Le 11 février 1998, le Centre pour les dispositifs et la santé radiologique a convoqué une réunion conjointe des groupes d'experts sur les dispositifs de microbiologie, d'hématologie/pathologie, de chimie clinique/toxicologie et d'immunologie. L'objectif de la réunion était d'obtenir des recommandations sur « la collecte, l'analyse et la résolution appropriées des résultats divergents, en utilisant une analyse scientifique et statistique solide pour étayer les indications d'utilisation de la in vitro dispositifs de diagnostic lorsque le nouveau dispositif est comparé à un autre dispositif, une méthode de référence reconnue ou « l'étalon-or », ou d'autres procédures non couramment utilisées, et/ou des critères cliniques de diagnostic. » À l'aide des commentaires de cette réunion, un projet de document d'orientation a été élaboré pour discuter de certaines approches statistiquement valides pour rapporter les résultats des études d'évaluation pour les nouveaux dispositifs de diagnostic. Le projet de directives a été publié pour commentaires publics le 12 mars 2003.

Suite à la publication du projet d'orientation, la FDA a reçu 11 commentaires. Dans l'ensemble, les commentaires étaient favorables et demandaient que des informations supplémentaires soient incluses dans les orientations finales. Certains répondants ont demandé une plus grande attention à l'utilisation d'une terminologie standard.

L'utilisation correcte de la terminologie pour décrire les résultats de performance est importante pour garantir une utilisation sûre et efficace d'un dispositif de diagnostic. Dans la mesure du possible, ce guide utilise une terminologie et des définitions internationalement acceptées, telles qu'elles sont compilées dans la base de données de terminologie harmonisée du Clinical and Laboratory Standards Institute (CLSI). 1 Ce guide utilise également des termes tels qu'ils sont définis dans le STARD (STAndards pour Rdéclaration de Précision diagnostique). 2 L'initiative STARD concerne les études sur l'exactitude du diagnostic. Bien que l'initiative STARD ne traite pas spécifiquement des études conçues pour démontrer l'équivalence des dispositifs de diagnostic, bon nombre des concepts de déclaration sont toujours applicables.

Les documents d'orientation de la FDA, y compris ces orientations, n'établissent pas de responsabilités juridiquement exécutoires. Au lieu de cela, les orientations décrivent la réflexion actuelle de l'Agence sur un sujet et ne doivent être considérées que comme des recommandations, à moins que des exigences réglementaires ou statutaires spécifiques ne soient citées. L'usage du mot devrait dans les directives de l'Agence signifie que quelque chose est suggéré ou recommandé, mais pas obligatoire.

Nous pensons que nous devrions envisager l'approche la moins contraignante dans tous les domaines de la réglementation des dispositifs médicaux. Ces directives reflètent notre examen minutieux des exigences scientifiques et juridiques pertinentes et ce que nous pensons être le moyen le moins contraignant pour vous de vous conformer à ces exigences. Cependant, si vous pensez qu'une approche alternative serait moins lourde, veuillez nous contacter afin que nous puissions considérer votre point de vue. Vous pouvez envoyer vos commentaires écrits à la personne de contact indiquée dans la préface de ce guide ou au Médiateur du CDRH. Des informations complètes sur le Médiateur du CDRH, y compris les moyens de le contacter, sont disponibles sur Internet.

2. Portée

Ce document fournit des conseils pour la soumission des demandes de notification de pré-commercialisation (510(k)) et d'approbation de pré-commercialisation (PMA) pour les dispositifs de diagnostic (tests). Ce guide traite de la communication des résultats de différents types d'études évaluant les dispositifs de diagnostic avec deux résultats possibles (positifs ou négatifs) dans les PMA et les 510(k)s. Le guide s'adresse à la fois aux statisticiens et aux non-statisticiens.

Ce guide n'aborde pas les problèmes statistiques fondamentaux associés à la conception et à la surveillance des études cliniques pour les dispositifs de diagnostic.

3. Présentation

Cette section fournit une explication des concepts pertinents pour ce guide. Nous notons d'emblée que l'évaluation d'un nouveau test de diagnostic doit comparer les résultats d'un nouveau produit (résultats de test) à une référence diagnostique appropriée et pertinente en utilisant des sujets/patients de la population d'utilisation prévue c'est-à-dire les sujets/patients pour lesquels le test est destiné à être utilisé. Dans STARD, cela s'appelle le population cible.

D'autres concepts et définitions importants sont les suivants :

Types de résultats de tests

La méthode de comparaison dépend de la nature des résultats du test. Les résultats des tests de diagnostic (résultats) sont généralement classés comme quantitatifs ou qualitatifs. Un résultat quantitatif est un montant ou un niveau numérique, tandis qu'un résultat qualitatif consiste généralement en l'une des deux seules réponses possibles, par exemple, malade ou non malade, positif ou négatif, oui ou non. Ce document concerne les tests de diagnostic dont le résultat final est qualitatif (même si la mesure sous-jacente est quantitative). Les tests quantitatifs et les tests avec des résultats ordinaux (plus de deux résultats possibles, mais ordonnés) ne sont pas abordés ici.

Nous partons également du principe que les données de votre étude n'incluent pas plusieurs échantillons provenant d'un seul patient.

Objectif d'un test de diagnostic qualitatif

Un test de diagnostic qualitatif (test) est conçu pour déterminer si une condition cible est présente ou absente chez un sujet de la population d'utilisation prévue. Comme défini dans STARD, le état cible (condition d'intérêt) "peut faire référence à une maladie particulière, à un stade de la maladie, à un état de santé ou à toute autre condition identifiable chez un patient, telle que le stade d'une maladie déjà connue pour être présente, ou un état de santé qui devrait inciter à une action clinique, tels que l'instauration, la modification ou l'arrêt d'un traitement.

La FDA recommande que votre étiquetage caractérise les performances des tests de diagnostic pour une utilisation par tous les utilisateurs prévus (laboratoires, prestataires de soins de santé et/ou utilisateurs à domicile).

Repères

La FDA reconnaît deux grandes catégories de références pour évaluer les performances diagnostiques des nouveaux tests de diagnostic qualitatifs. Ces catégories sont (1) la comparaison à un standard de référence (défini ci-dessous), ou (2) la comparaison à une méthode ou un prédicat autre qu'un standard de référence (standard non-référence). Le choix de la méthode comparative déterminera quelles mesures de performance peuvent être rapportées dans l'étiquette.

Précision diagnostique et étalon de référence

Les précision du diagnostic d'un nouveau test se réfère à l'étendue de l'accord entre le résultat du nouveau test et la norme de référence. Nous utilisons le terme standard de référence tel que défini dans STARD. C'est un norme de référence est « considérée comme la meilleure méthode disponible pour établir la présence ou l'absence de la condition cible ». Il divise la population d'utilisation prévue en seulement deux groupes (affection présente ou absente) et ne prend pas en compte le résultat du nouveau test en cours d'évaluation.

L'étalon de référence peut être un test ou une méthode unique, ou une combinaison de méthodes et de techniques, y compris le suivi clinique. Si une norme de référence est une combinaison de méthodes, l'algorithme spécifiant comment les différents résultats sont combinés pour faire une classification finale positive/négative (qui peut inclure le choix et l'ordre de ces méthodes) fait partie de la norme. Des exemples de normes de référence comprennent le diagnostic de l'infarctus du myocarde à l'aide des normes de l'OMS (Organisation mondiale de la santé), le diagnostic du lupus ou de la polyarthrite rhumatoïde à l'aide des directives américaines de rhumatologie ou le diagnostic des infections à H. pylori à l'aide de combinaisons de culture, d'histologie et test d'uréase.

La détermination de ce qui constitue la « meilleure méthode disponible » et si cette méthode doit être considérée comme une « norme de référence » est établie par l'opinion et la pratique au sein de la communauté médicale, de laboratoire et de réglementation. Parfois, plusieurs méthodes peuvent être envisagées. Parfois, aucune norme de référence consensuelle n'existe. Ou, une norme de référence peut exister, mais pour un pourcentage non négligeable de la population d'utilisation prévue, la norme de référence est connue pour être erronée. Dans toutes ces situations, nous vous recommandons de consulter la FDA sur votre choix d'étalon de référence avant de commencer votre étude.

Nous soulignons que certaines définitions de l'exactitude diagnostique (voir la base de données terminologique harmonisée du CLSI) exigent que la norme de référence et la condition cible se réfèrent uniquement à un trouble clinique bien défini. Les définitions utilisées dans ce document sont plus larges. Par exemple, l'état cible pourrait être un état de santé bien défini ou un état qui incite à une action clinique telle que l'initiation d'un traitement.

Mesures qui décrivent la précision du diagnostic

Il existe différentes manières de décrire la précision du diagnostic. Les mesures appropriées comprennent les estimations des paires de sensibilité et de spécificité, le rapport de vraisemblance des paires de résultats positifs et négatifs, et l'analyse ROC (Receiver Operating Characteristic) ainsi que les intervalles de confiance. Se référer à l'édition la plus récente des directives approuvées CLSI EP12-A et GP10-A, les textes de Lang et Secic (1997), Pepe (2003), Zhou et al. (2002) les références au sein de ces textes et la bibliographie à la fin de ce document. Pour aider à interpréter ces mesures, nous vous recommandons de fournir la définition de la condition d'intérêt, la norme de référence, la population d'utilisation prévue et une description de la population à l'étude.

Sensibilité et spécificité

Dans les études sur la précision du diagnostic, le sensibilité du nouveau test est estimée comme la proportion de sujets atteints de la maladie cible chez lesquels le test est positif. De même, le spécificité du test est estimée comme la proportion de sujets sans la condition cible chez lesquels le test est négatif (voir l'annexe pour un exemple de ce calcul). Ce ne sont que estimations pour la sensibilité et la spécificité parce qu'elles sont basées uniquement sur un sous-ensemble de sujets de la population d'utilisation prévue si un autre sous-ensemble de sujets était testé (ou même les mêmes sujets testés à un moment différent), alors les estimations de la sensibilité et de la spécificité seraient probablement numériquement différent. Les intervalles de confiance et les niveaux de signification quantifient l'incertitude statistique dans ces estimations en raison du processus de sélection des sujets/échantillons. Ce type d'incertitude diminue à mesure que le nombre de sujets dans l'étude augmente.

Valeur prédictive positive et négative

Vous pouvez également calculer d'autres quantités pour aider à caractériser la précision du diagnostic. Ces méthodes incluent la valeur prédictive d'un résultat positif (parfois appelée valeur prédictive positive ou VPP) et la valeur prédictive d'un résultat négatif (parfois appelée valeur prédictive négative ou VPN). Ces quantités fournissent des informations utiles sur la façon d'interpréter les résultats des tests. Vous pouvez vous référer à la littérature abondante sur la façon de calculer et d'interpréter ces mesures. (Voir l'édition la plus récente de CLSI EP12-A, Lang et Secic (1997), Pepe (2003), Zhou et al. (2002), les références dans les textes et la bibliographie à la fin de ce document.) de ces mesures dépasse le cadre de ce document.

Biais

Les estimations de sensibilité et de spécificité (et d'autres estimations de la performance diagnostique) peuvent être sujettes à des biais. Estimations biaisées sont systématiquement trop élevés ou trop bas. Les estimations biaisées de la sensibilité et de la spécificité n'égaleront pas la vraie sensibilité et spécificité, en moyenne. Souvent, l'existence, la taille (l'ampleur) et la direction du biais ne peuvent pas être déterminées. Le biais crée des estimations inexactes.

La FDA estime qu'il est important de comprendre les sources potentielles de biais pour les éviter ou les minimiser. Le simple fait d'augmenter le nombre total de sujets dans l'étude ne fera rien pour réduire les biais. Alternativement, la sélection des « bons » sujets, la modification de la conduite de l'étude ou des procédures d'analyse des données peuvent supprimer ou réduire les biais.

Deux sources de biais qui ont motivé à l'origine l'élaboration de ce guide comprennent l'erreur dans la norme de référence et l'incorporation des résultats du test en cours d'évaluation pour établir la condition cible. Ce guide traite des problèmes découlant de ces sources de biais et d'autres et décrit comment minimiser ces problèmes dans la conception de votre étude et l'analyse des données. Ce guide n'essaie pas de discuter de toutes les sources possibles de biais et de la façon de les éviter. Pour des discussions complètes sur les études sur les biais et les dispositifs de diagnostic, voir Begg (1987), Pepe (2003), Zhou et al. (2002) et les références citées dans ces textes.

Lorsqu'une norme de non-référence est utilisée pour la comparaison

Lorsqu'un nouveau test est évalué par rapport à une norme de non-référence, la sensibilité et la spécificité ne sont pas des termes appropriés pour décrire les résultats comparatifs. Les informations sur l'exactitude ou l'« exactitude » du nouveau test ne peuvent pas être estimées directement. Au lieu de cela, lorsqu'une norme de non-référence est utilisée pour la comparaison, la FDA vous recommande de démontrer la capacité du test candidat à être suffisamment en accord avec la méthode comparative ou le prédicat. Une question abordée dans ce document est de savoir comment rapporter les résultats d'une étude évaluant un nouveau test de diagnostic lorsque la méthode comparative n'est pas une norme de référence.

4. Références et recommandations de la population à l'étude

La FDA vous recommande de planifier soigneusement votre étude avant de prélever le premier échantillon ou de prendre la première mesure. Cela inclut de déterminer si vous souhaitez signaler la précision du diagnostic ou l'accord de l'appareil. Si vous souhaitez signaler l'exactitude du diagnostic, la FDA recommande que votre évaluation inclue l'utilisation d'un étalon de référence sur au moins certains des sujets.

Nous vous recommandons de contacter le CDRH au plus tôt pour discuter des plans d'étude possibles et des analyses statistiques avant toute collecte de données pour l'étude clinique. 3 Il existe souvent des méthodes statistiques avancées prometteuses qui peuvent être appropriées, et de nouvelles techniques d'analyse statistique sont constamment mises au point. La liste de références à la fin de ce document comprend une variété d'approches. Discuter de votre étude prévue avec le CDRH avant de commencer peut vous faire gagner du temps et de l'argent.

4.1 Comparaisons avec le Benchmark

Le choix du benchmark comparatif et les méthodes de comparaison et de reporting sont influencés par l'existence et/ou l'applicabilité pratique d'un standard de référence. En fonction de la disponibilité d'un standard de référence, la FDA fait les recommandations suivantes concernant le choix du benchmark comparatif :

  1. Si un standard de référence est disponible : l'utiliser pour estimer la sensibilité et la spécificité
  2. Si une norme de référence est disponible, mais peu pratique : utilisez-la dans la mesure du possible. Calculer les estimations de sensibilité et de spécificité ajustées pour corriger tout biais (de vérification) qui peut avoir été introduit en n'utilisant pas la norme de référence dans toute sa mesure.
  3. Si une norme de référence n'est pas disponible ou inacceptable pour votre utilisation particulière prévue et/ou votre population d'utilisation prévue : déterminez si une norme peut être construite. Si c'est le cas, calculez la sensibilité et la spécificité estimées selon la norme construite.
  4. Si une norme de référence n'est pas disponible et ne peut pas être construite : calculez et rapportez les mesures de une entente (voir Annexes).

Nous fournissons maintenant plus de détails sur ces recommandations :

Si une norme de référence est disponible

D'un point de vue purement statistique, la FDA estime que la meilleure approche consiste à désigner une norme de référence et à comparer le nouveau test à la norme de référence désignée, en s'appuyant sur des sujets représentatifs de la population d'utilisation prévue. Nous vous recommandons de consulter la FDA avant de planifier une étude pour vous assurer que la norme de référence désignée répondra aux besoins de l'Agence. Dans cette situation, la sensibilité et la spécificité ont un sens, et vous pouvez facilement calculer les estimations. Les annexes contiennent un exemple numérique.

Si une norme de référence est disponible, mais peu pratique

Si vous déterminez que l'utilisation d'un étalon de référence sur tous les sujets est peu pratique ou impossible, la FDA vous recommande d'obtenir des estimations de sensibilité et de spécificité en utilisant le nouveau test et une méthode comparative (autre qu'un étalon de référence) sur tous les sujets, et d'utiliser l'étalon de référence sur un sous-ensemble de sujets seulement (parfois appelées études de vérification partielle ou études en deux étapes).

Par exemple, si vous appliquez la norme de référence désignée à un sous-ensemble aléatoire de tous les sujets, ou à tous les sujets où le nouveau test et la méthode comparative ne sont pas d'accord et à un échantillon aléatoire de sujets où ils sont d'accord, il est alors possible de calculer des estimations ajustées (et les écarts) de sensibilité et de spécificité. Dans ce cas, la FDA vous recommande de retester un nombre suffisant de sujets pour estimer la sensibilité et la spécificité avec une précision raisonnable.

Notez que les formules simples pour calculer la sensibilité et la spécificité décrites dans l'annexe ne sont pas correctes pour cette conception et de tels calculs naïfs donneraient des estimations biaisées de la sensibilité et de la spécificité. Ce type de biais est un exemple de biais de vérification ou de traitement. Pour plus de détails, voir Begg (1987), Pepe (2003) ou Zhou et al. (2002).

Déterminer la taille d'un sous-ensemble à choisir, le sous-ensemble particulier à choisir et comment calculer les mesures de performance est actuellement un domaine de recherche statistique active. Voir Albert (2006), Albert & Dodd (2004, 2006), Hawkins et al. (2001), Kondratovich (2003), Pepe (2003), Zhou et al. (2002) et les références citées dans ces références. Étant donné que cette approche peut être statistiquement compliquée, la FDA vous recommande de consulter un statisticien du CDRH avant d'utiliser cette approche.

Dans de rares circonstances, il peut être possible d'estimer la sensibilité et la spécificité sans utiliser une norme de référence dans l'étude. Cela peut être raisonnable, par exemple, lorsque la sensibilité et la spécificité de la méthode comparative désignée sont bien établies à partir d'évaluations précédentes par rapport à une norme de référence dans des populations de sujets similaires. L'élaboration plus approfondie de ce sujet dépasse le cadre de ce document. Ici aussi, la FDA vous recommande de consulter un statisticien du CDRH avant d'utiliser cette approche.

Si un étalon de référence n'est pas disponible, mais pourrait être construit

Un groupe d'experts (groupe consultatif de la FDA ou autre groupe) peut être en mesure de développer un ensemble de critères cliniques (ou une combinaison de tests de référence et d'informations cliniques de confirmation) qui serviraient de norme de référence désignée. Bien que cette approche puisse prendre plus de temps au départ, si elle réussit, vous pouvez facilement calculer des estimations de sensibilité et de spécificité. Dans cette situation, la FDA recommande

  • l'étiquette d'essai décrit clairement l'étalon de référence désigné qui a été construit
  • la nouvelle norme de référence soit créée indépendamment de l'analyse des résultats du nouveau test de diagnostic (idéalement, avant le prélèvement d'échantillons)
  • vous consultez les médecins et les statisticiens du CDRH avant de construire une norme de référence.

Si un étalon de référence n'est pas disponible et ne peut pas être construit

Lorsqu'un nouveau test est évalué par comparaison à une norme non de référence, vous ne pouvez pas calculer directement des estimations non biaisées de la sensibilité et de la spécificité. Par conséquent, les termes sensibilité et spécificité ne sont pas appropriés pour décrire les résultats comparatifs. Au lieu de cela, les mêmes calculs numériques sont effectués, mais les estimations sont appelées pourcentage d'accord positif et pourcentage d'accord négatif, plutôt que la sensibilité et la spécificité. Cela reflète que les estimations ne sont pas d'exactitude mais de concordance du nouveau test avec la norme de non-référence.

De plus, des quantités telles que la valeur prédictive positive, la valeur prédictive négative et les rapports de vraisemblance positif et négatif ne peuvent pas être calculées car l'état de santé des sujets (tel que déterminé par une norme de référence) est inconnu.

Dans cette situation, la FDA vous recommande de signaler

  • le tableau 2x2 des résultats comparant le test candidat avec la méthode comparative
  • une description de la méthode comparative et de la manière dont elle a été réalisée
  • la paire de mesures d'accord ainsi que leurs intervalles de confiance.

Les annexes fournissent un exemple numérique.

Nous adoptons les termes « pourcentage d'accord positif » et « pourcentage d'accord négatif » avec la mise en garde suivante. L'accord d'un nouveau test avec la norme de non-référence est numériquement différent de l'accord de la norme de non-référence avec le nouveau test (contrairement à ce que le terme « accord » implique). Par conséquent, lors de l'utilisation de ces mesures d'accord, la FDA vous recommande d'indiquer clairement les calculs effectués.

Un inconvénient majeur des mesures d'accord est que l'accord n'est pas une mesure de « correction ». Deux tests pourraient concorder et les deux être faux. En fait, deux tests pourraient bien concorder, mais tous deux ont une sensibilité et une spécificité médiocres. Cependant, lorsque deux tests sont en désaccord, cela ne signifie pas que le nouveau test est faux et que la méthode comparative est correcte.

Il faut également savoir que les mesures de accord global (y compris à la fois le pourcentage d'accord global et le Kappa de Cohen) peut être trompeur dans ce contexte. Dans certaines situations, la concordance globale peut être bonne lorsque le pourcentage de concordance positif ou négatif est très faible. Pour cette raison, la FDA déconseille l'utilisation autonome de mesures d'accord global pour caractériser les performances diagnostiques d'un test.

De nombreuses recherches statistiques ont été menées sur la manière d'estimer la précision diagnostique d'un nouveau test lorsqu'une norme de référence n'est pas disponible ou n'existe pas. Albert et Dodd (2004), Pepe (2003) et Zhou et al. (2002) fournissent des revues de certaines de ces recherches, qui incluent l'utilisation de modèles de classes latentes et de modèles bayésiens. Ces approches fondées sur un modèle peuvent être problématiques pour estimer la sensibilité et la spécificité, car il est souvent difficile de vérifier que le modèle et les hypothèses utilisés sont corrects. Ce qui est plus problématique, c'est que différents modèles peuvent s'adapter aussi bien aux données, tout en produisant des estimations très différentes de la sensibilité et de la spécificité. Pour ces types d'analyses, la FDA recommande de rapporter une gamme de résultats pour une variété de modèles et d'hypothèses. La FDA vous recommande également de consulter un statisticien du CDRH avant d'utiliser ces approches.

4.2 Sélection de la population à l'étude

En plus de choisir une référence comparative appropriée, l'évaluation d'un nouveau test implique également de choisir un ensemble approprié de :

  • sujets ou spécimens à tester
  • des particuliers et des laboratoires pour effectuer les tests
  • conditions dans lesquelles les tests seront effectués.

Biais de spectre

Les estimations de la précision du diagnostic sont soumises à biais de spectre lorsque les sujets inclus dans l'étude n'incluent pas l'éventail complet des caractéristiques des patients, c'est-à-dire qu'il manque des sous-groupes importants de patients. Voir Begg (1987), Pepe (2003) ou Zhou et al. (2002). Par exemple, il existe des études qui incluent uniquement des sujets en très bonne santé et des sujets atteints d'une maladie grave, omettant les cas intermédiaires et généralement plus difficiles à diagnostiquer. Les mesures de précision rapportées à partir de ces études sont sujettes à un biais de spectre.

L'élimination des cas difficiles produit une image trop optimiste des performances de l'appareil en utilisation réelle. Par conséquent, la FDA recommande que l'ensemble de sujets et d'échantillons à tester comprennent :

  • sujets/échantillons dans toute la gamme des états pathologiques
  • sujets/échantillons présentant des conditions médicales confondantes pertinentes
  • sujets/échantillons dans différents groupes démographiques.

Si l'ensemble de sujets et d'échantillons à évaluer dans l'étude n'est pas suffisamment représentatif de la population d'utilisation prévue, les estimations de l'exactitude du diagnostic peuvent être biaisées.

Validité externe

Une étude a élevé validité externe si les résultats de l'étude reflètent suffisamment les performances « dans le monde réel » de l'appareil dans la population d'utilisation prévue. La sélection de l'ensemble approprié de sujets et/ou d'échantillons n'est pas en soi suffisante pour garantir une validité externe élevée.Bien qu'une discussion détaillée de la validité externe dépasse le cadre de ce document, la FDA recommande généralement :

  • en utilisant la version finale de l'appareil conformément aux instructions d'utilisation finales
  • en utilisant plusieurs de ces appareils dans votre étude
  • y compris plusieurs utilisateurs avec une formation pertinente et une gamme d'expertise
  • couvrant une gamme d'utilisations et de conditions de fonctionnement attendues.

Voir Rothwell (2006) pour une discussion non technique dans le contexte des essais randomisés.

5. Recommandations en matière de rapports

Des principes de rapport similaires s'appliquent à toute étude évaluant un test de diagnostic, que la référence comparative soit ou non une norme de référence.

Rapporter le contexte de l'étude

Les mesures de performance doivent être interprétées dans le contexte de la population étudiée et de la conception de l'étude. La sensibilité et la spécificité ne peuvent pas être interprétées par elles-mêmes, des informations supplémentaires sont nécessaires. Par exemple, la sensibilité et la spécificité estimées d'un même test peuvent différer d'une étude à l'autre, selon les types de sujets inclus dans l'étude et si une norme de référence obsolète est utilisée par rapport à une norme de référence actuellement acceptée par la communauté clinique aujourd'hui.

Avant de présenter les résultats, la FDA vous recommande de décrire ou de définir :

  • population d'utilisation prévue
  • population étudiée
  • condition d'intérêt (définition précise de la condition expliquant comment ces

les sujets avec la condition d'intérêt sont distingués de ceux sans)

La FDA vous recommande également de discuter :

  • la justification du choix de l'indice de référence comparatif désigné
  • les forces et les limites susceptibles de résulter de la sélection de cette référence.

Définir les conditions d'utilisation

La FDA vous recommande de définir les conditions d'utilisation dans lesquelles le test candidat et l'étalon de référence ou la méthode comparative sont réalisés. Ceux-ci peuvent inclure :

  • expérience de l'opérateur
  • installation de laboratoire clinique ou autre environnement de test
  • contrôles appliqués
  • critères d'acceptation des spécimens.

Descriptions des résultats comparatifs et des méthodes

La FDA vous recommande d'inclure dans vos résultats une description claire de toutes les méthodes utilisées et comment et quelles données ont été collectées, telles que :

  • sujet des procédures de recrutement
  • démographie du sujet
  • critères d'inclusion et d'exclusion du sujet et de l'échantillon
  • procédures de prélèvement d'échantillons
  • moment du prélèvement et de l'analyse des échantillons
  • types de spécimens collectés
  • nombre d'échantillons prélevés et testés et nombre rejeté
  • nombre d'échantillons inclus dans l'analyse finale des données
  • dispositifs de prélèvement d'échantillons (le cas échéant)
  • procédures de stockage et de manipulation des échantillons.

Communication des résultats de l'étude

La FDA vous recommande de déclarer tous les résultats par

  • site clinique ou site de prélèvement d'échantillons,
  • site d'essai ou de traitement des échantillons, et
  • sous-groupes cliniques et démographiques pertinents.

La FDA vous recommande de rapporter les comparaisons tabulaires du résultat du test candidat par rapport à la norme de référence ou à la méthode comparative. (Par exemple, nous vous recommandons de rapporter le tableau de résultats 2x2 comme ceux de l'annexe.)

La FDA vous recommande de signaler les mesures de précision du diagnostic (paires de sensibilité et de spécificité, paires de rapports de vraisemblance positive et négative) ou les mesures de concordance (pourcentage de concordance positive et pourcentage de concordance négative) et leurs intervalles de confiance bilatéraux à 95 %. Nous vous recommandons de déclarer ces mesures à la fois sous forme de fractions (par exemple, 490/500) et en pourcentages (par exemple, 98,0%). Les annexes contiennent un exemple numérique.

Résultat quantitatif sous-jacent

Pour les tests qualitatifs dérivés d'un résultat quantitatif sous-jacent, la FDA vous recommande de fournir des résumés descriptifs comprenant :

  • gammes de résultats
  • histogrammes des résultats par état de santé (si connu)
  • Tracés des caractéristiques de fonctionnement du récepteur (ROC) (si l'état de la condition est connu).

Le document CLSI GP10 Évaluation de l'exactitude clinique des tests de laboratoire à l'aide de tracés des caractéristiques de fonctionnement du récepteur (ROC) fournit des indications supplémentaires sur ce sujet.

Comptabilité des sujets et résultats des tests

La FDA vous recommande de fournir un compte rendu complet de tous les sujets et résultats des tests, y compris :

  • nombre de sujets à tester
  • nombre testé
  • nombre utilisé dans l'analyse finale
  • nombre omis de l'analyse finale.

La FDA vous recommande de fournir le nombre de résultats ambigus 4 pour les tests candidats, stratifiés par résultat standard de référence ou résultat comparatif.

Rapporter séparément les résultats de la population d'utilisation prévue

La FDA vous recommande de rapporter les résultats pour ces sujets dans la population d'utilisation prévue séparément des autres résultats. Il peut être utile de rapporter des résultats comparatifs pour des sujets qui ne font pas partie de la population d'utilisation prévue, mais nous recommandons de ne pas les regrouper. Par exemple, si les individus en bonne santé ne font pas partie de la population d'utilisation prévue, nous recommandons que ces résultats soient rapportés séparément des résultats pour la population d'utilisation prévue. Les résultats provenant de patients en dehors de la population d'utilisation prévue ne doivent pas être étiquetés comme « spécificité ». Le terme spécificité est approprié pour décrire la fréquence à laquelle un test est négatif uniquement chez les sujets de la population d'utilisation prévue pour lesquels la condition cible est absente.

Rare condition d'intérêt

Lorsque la condition d'intérêt est rare, les études sont parfois enrichies de sujets positifs standard de référence, ce qui rend potentiellement les résultats inappropriés pour une mise en commun avec d'autres résultats positifs. Nous vous recommandons de consulter la FDA sur cette question.

Collections archivées

Si votre test est évalué à l'aide d'échantillons obtenus rétrospectivement à partir de collections archivées, les allégations de sensibilité et de spécificité peuvent ou non être appropriées. Ces allégations peuvent être appropriées si les échantillons archivés sont représentatifs d'échantillons provenant de sujets dans la population d'utilisation prévue, avec et sans la condition cible, y compris les cas peu clairs. La FDA vous recommande de fournir une description des résultats, indiquant :

  • la nature des spécimens étudiés
  • comment l'état de la condition cible a été déterminé
  • les limitations introduites par l'échantillonnage sélectif.

6. Pratiques statistiquement inappropriées

Certaines pratiques courantes de communication des résultats sont statistiquement inappropriées car elles sont trompeuses ou peuvent conduire à des estimations inexactes des performances des tests. Ces pratiques surviennent le plus souvent lorsqu'un nouveau test est comparé à une méthode comparative autre qu'une norme de référence.

La comparaison d'un nouveau test avec un standard non-référentiel ne donne pas de vraies performances. Si le nouveau test est meilleur que la norme de non-référence, la concordance sera mauvaise. Alternativement, l'accord pourrait être faible parce que la norme de non-référence est assez précise et le nouveau test est inexact. Il n'y a pas de solution statistique pour déterminer quel scénario est la vraie situation.

Lors de la comparaison d'un nouveau test à une norme de non-référence, la FDA fait les recommandations suivantes concernant quatre pratiques courantes qui, selon nous, donnent des résultats trompeurs ou incorrects.

1. Éviter d'utiliser les termes « sensibilité » et « spécificité » pour décrire la comparaison d'un nouveau test à une norme de non-référence

Lorsqu'un nouveau test est évalué par comparaison à un standard non-référentiel, il est impossible de calculer des estimations non biaisées de la sensibilité et de la spécificité. De plus, des quantités telles que la valeur prédictive positive, la valeur prédictive négative et les rapports de vraisemblance positif et négatif ne peuvent pas être calculées car l'état de santé des sujets (tel que déterminé par une norme de référence) est inconnu.

Pour cette raison, la FDA vous recommande de signaler

  • le tableau des résultats 2x2 comparant le nouveau test avec l'étalon de non-référence
  • une description de la norme de non-référence
  • mesures de concordance et intervalles de confiance correspondants.

La FDA recommande l'utilisation des termes pourcentage d'accord positif et pourcentage d'accord négatif avec la norme de non-référence pour décrire ces résultats. Les mesures de l'accord sont examinées plus en détail dans les annexes.

2. Éviter l'élimination des équivoques 5 résultats

Si un test peut (selon les instructions du test) produire un résultat autre que positif ou négatif, il ne s'agit pas techniquement d'un test qualitatif (puisque plus de deux résultats sont possibles). Dans ce cas, les mesures décrites dans ce guide ne s'appliquent pas directement. Le fait de rejeter ou d'ignorer ces résultats et d'effectuer les calculs dans ce guide entraînera probablement des estimations de performance biaisées.

Pour résoudre ce problème, une option consiste à déclarer deux ensembles différents de mesures du rendement

  • un ensemble de mesures basées sur l'inclusion des résultats équivoques avec les résultats positifs du test
  • un deuxième ensemble de mesures basé sur l'inclusion des résultats équivoques avec les résultats négatifs du test.

Cela peut ou peut ne pas être raisonnable pour votre situation. La FDA vous recommande de consulter les statisticiens de la FDA sur la façon de gérer ces types de résultats.

3. Éviter l'utilisation de résultats modifiés ou mis à jour par une résolution divergente

Vous ne devez pas utiliser les résultats qui sont modifiés ou mis à jour par résolution discordante pour estimer la sensibilité et la spécificité d'un nouveau test ou l'accord entre un nouveau test et une norme de non-référence.

Lorsqu'un nouveau test est évalué par comparaison à un standard non-référentiel, des divergences (désaccord) entre les deux méthodes peuvent survenir en raison d'erreurs dans la méthode de test ou d'erreurs dans le standard non-référencé. Étant donné que la norme de non-référence peut être erronée, les calculs de sensibilité et de spécificité basés sur la norme de non-référence sont statistiquement biaisés. Une pratique appelée résolution de discordance a été suggérée pour contourner le problème de biais.

Comme le nom l'indique, résolution discordante se concentre sur les sujets où il y a un écart, c'est-à-dire où le nouveau test et la norme de non-référence sont en désaccord. Dans la situation la plus simple, la résolution des divergences peut être décrite comme un processus de test en deux étapes :

  • Étape 1 : Tester tous les sujets à l'aide du nouveau test et de la norme de non-référence
  • Étape 2 : Lorsque le nouveau test et la norme de non-référence sont en désaccord, en utilisant un résolveur (une norme de référence ou une deuxième norme de non-référence) pour voir laquelle est « bonne ».

Un exemple numérique décrivant la résolution discordante apparaît en annexe. Si le résolveur est une norme de référence, ce processus fournit l'état de la condition pour les sujets retestés avec le résolveur, mais il ne fournit pas l'état de la condition pour les sujets lorsque le nouveau test est en accord avec la norme de non-référence (généralement la plupart des sujets). Même lorsque le nouveau test et la norme de non-référence concordent, ils peuvent tous deux se tromper.

La FDA ne recommande pas le processus utilisé par certains chercheurs selon lequel le résolveur est utilisé pour réviser le tableau de résultats 2x2 d'origine (nouveau test par rapport à la norme de non-référence). Nous pensons que la table 2x2 d'origine est « révisée » de manière inappropriée dans cette méthode car :

  • lorsque les deux résultats originaux concordent, vous supposez (sans preuve à l'appui) qu'ils sont tous les deux corrects et n'apportez aucune modification au tableau
  • lorsque les résultats d'origine sont en désaccord et que la norme de non-référence est en désaccord avec le résolveur, vous reclassez (modifiez) le résultat de la norme de non-référence en résultat du résolveur.

Le tableau 2x2 révisé basé sur une résolution discordante est trompeur car les colonnes ne sont pas clairement définies et ne représentent pas nécessairement l'état de l'état, comme supposé. L'hypothèse selon laquelle les résultats qui concordent sont corrects n'est pas vérifiée et peut être loin d'être valide. La FDA vous recommande de ne pas présenter un tel tableau dans votre analyse finale car il peut être très trompeur. Étant donné que les calculs de sensibilité et de spécificité à partir d'un tel tableau 2x2 révisé ne sont pas des estimations valides de la performance, ils ne doivent pas être rapportés.

La FDA n'a connaissance d'aucun moyen scientifiquement valable pour estimer la sensibilité et la spécificité en ne résolvant que les résultats discordants, même lorsque le résolveur est un standard de référence. Pour obtenir des estimations non biaisées de la sensibilité et de la spécificité, la FDA estime

  • le résolveur doit être un étalon de référence, et
  • vous devez résoudre au moins un sous-ensemble des sujets concordants.

La résolution de discordance avec un résolveur d'étalon de référence peut vous dire si le nouveau test ou l'étalon de non-référence est correct la plupart du temps, mais vous ne pouvez pas quantifier davantage. Si le résolveur n'est pas une norme de référence, les résultats du test du résolveur peuvent fournir peu ou pas d'informations utilisables sur les performances du nouveau test. Résoudre les divergences en utilisant des tests répétés par le nouveau test ou la norme de non-référence ne fournit pas non plus d'informations utiles sur les performances.

4. Éviter la comparaison des résultats d'un nouveau test avec le résultat d'un algorithme de test qui combine plusieurs méthodes comparatives (normes de non-référence), si l'algorithme utilise le résultat du nouveau test

Lors de l'évaluation de certains types de tests, la « procédure » ​​comparative n'est pas un test unique, mais le résultat d'une combinaison de plusieurs méthodes comparatives et éventuellement d'informations cliniques. Souvent, deux ou plusieurs méthodes comparatives sont exécutées et interprétées selon une séquence ou un algorithme de test pré-spécifié pour déterminer l'état de l'état.

La décision d'utiliser une deuxième ou une troisième méthode comparative peut dépendre du résultat de la méthode comparative initiale. Cette approche peut être statistiquement raisonnable. Cependant, la FDA estime que cette approche n'est pas valide si l'algorithme utilise le résultat du nouveau test non prouvé. Par exemple, la décision d'utiliser une méthode comparative supplémentaire ne doit pas être fondée sur le fait que le nouveau test est positif ou négatif.

La FDA pense qu'il est potentiellement trompeur d'établir les performances d'un nouveau test en le comparant à une procédure qui incorpore le même nouveau test. Toute norme de non-référence créée de cette manière sera probablement biaisée en faveur du nouveau test, c'est-à-dire qu'elle aura tendance à produire des surestimations de la concordance du nouveau test avec la norme de non-référence.

En résumé, lorsqu'elle rapporte les résultats d'une étude évaluant un test de diagnostic, la FDA estime qu'il est inapproprié à:

  • utiliser les termes « sensibilité » et « spécificité » pour décrire la comparaison d'un nouveau test à une norme de non-référence
  • rejeter les nouveaux résultats de test équivoques lors du calcul des mesures de l'exactitude ou de la concordance du diagnostic
  • utiliser des résultats qui sont modifiés ou mis à jour par une résolution discordante pour estimer la sensibilité et la spécificité d'un nouveau test ou l'accord entre un nouveau test et une norme de non-référence
  • comparer les résultats d'un nouveau test au résultat d'un algorithme de test qui combine plusieurs méthodes comparatives (normes de non-référence), si l'algorithme utilise le résultat du nouveau test.

7. Annexes

7.1 Calcul des estimations de sensibilité et de spécificité

La sensibilité et la spécificité sont des mesures de base de la performance pour un test de diagnostic. Ensemble, ils décrivent dans quelle mesure un test peut déterminer si une condition spécifique est présente ou absente. Ils fournissent chacun des informations distinctes et d'égale importance, et la FDA recommande qu'ils soient présentés ensemble :

  • Sensibilité fait référence à la fréquence à laquelle le test est positif lorsque la condition d'intérêt est présente
  • Spécificité fait référence à la fréquence à laquelle le test est négatif lorsque la condition d'intérêt est absente.

Notez qu'un test de diagnostic où la sensibilité est égale à [1–spécificité] n'a aucune valeur diagnostique. C'est-à-dire que si le pourcentage de sujets avec des résultats de test positifs lorsque la condition est présente (sensibilité) est le même que le pourcentage de sujets avec des résultats de test positifs lorsque la condition est absente (1– spécificité), alors le nouveau résultat de test n'est pas affecté par la condition d'intérêt, et il n'a aucune valeur diagnostique pour cette condition d'intérêt. Cependant, un test dont la sensibilité et la spécificité sont proches de 1 a une bonne capacité de diagnostic.

Habituellement, pour estimer la sensibilité et la spécificité, le résultat du nouveau test est comparé à la norme de référence en utilisant des sujets qui sont représentatifs de la population d'utilisation prévue (à la fois l'état présent et l'état absent).

Nous partons du principe que les données de votre étude n'incluent pas plusieurs échantillons provenant d'un seul patient. Si vous disposez de telles données, nous vous recommandons de consulter les statisticiens de la FDA sur les méthodes de calcul appropriées.

Les résultats sont généralement rapportés dans un tableau 2x2 tel que le tableau 1.

Le nouveau test a deux résultats possibles, positif (+) ou négatif (). Les sujets avec la condition d'intérêt sont indiqués comme standard de référence (+), et les sujets sans la condition d'intérêt sont indiqués comme standard de référence ().


Méthodes

Modèle de temps jusqu'à l'événement

Dans une caméra déclenchée par mouvement placée au hasard, le temps jusqu'à ce que l'espèce cible soit détectée est fonction de l'abondance, du taux de déplacement et de la détectabilité (Jennelle et al. 2002 , Parsons et al. 2017 ). Le modèle TTE utilise ce fait pour estimer l'abondance à partir des observations du temps (à partir de n'importe quel moment arbitraire) jusqu'à ce qu'un animal soit détecté pour la première fois. Dans ce cadre, nous séparons les deux composantes du processus de détection : la disponibilité et la perception. Fréquemment, dans la littérature sur les pièges photographiques, ces deux processus sont combinés de sorte que la détection est définie comme la probabilité de détecter un animal étant donné qu'il se trouve dans une parcelle échantillonnée par une caméra (Burton et al. 2015 ). Nous supprimons l'idée d'échantillonner une parcelle entière avec une caméra et nous nous concentrons à la place uniquement sur la zone dans le champ de vision de la caméra. De cette façon, nous réduisons la définition de la probabilité de détection à la probabilité qu'un animal soit capturé par une caméra déclenchée par le mouvement, étant donné que l'animal se trouve dans le champ de vision de la caméra. Nous commençons par formuler le modèle TTE en supposant une détection parfaite, puis, nous présentons une extension pour tenir compte de la détectabilité variable.

Dans un cadre TTE, on s'intéresse à estimer en observant T, le nombre de périodes d'échantillonnage jusqu'à ce que le premier animal rencontre la caméra. Pour une seule observation de TTE Tje à la caméra je = 1, 2, …, M et dégustation j = 1, 2, …, J, nous enregistrons la première période d'échantillonnage k = 1, 2, …, K dans laquelle on observe les espèces d'intérêt (Fig. 2). Par exemple, à la caméra 1 le jour 1, si nous observons d'abord l'espèce d'intérêt au cours de la troisième période d'échantillonnage, nous enregistrons le TTE T11 = 3. Si nous n'observons pas d'animal à la fin de la Kème période d'échantillonnage, le TTE doit être plus long que notre temps d'observation, nous censurons donc à droite cette occasion (Muenchow 1986 , Pyke et Thompson 1986 , Castro-Santos et Haro 2003 , Bischof et al. 2014 ). Un exemple d'historique de rencontre à la caméra 1 avec J = 5 et K = 24 pour chaque occasion d'échantillonnage peut ressembler T1j = <N / A, 23, N / A, N / A, 5>, où une occasion d'échantillonnage censurée à droite est représentée par N / A.

Nous estimons la variance d'échantillonnage de N ^ en utilisant les propriétés de la théorie du maximum de vraisemblance et de la méthode delta (Mood et al. 1974 , Oehlert 1992 , Williams et al. 2002 ). Le code R pour la mise en œuvre du modèle TTE est donné dans les données S1 et l'annexe S1.

où (z + 1) est la fonction gamma (z + 1) = z! et (z + 1,jeTje) est la fonction gamma incomplète inférieure γ z + 1 , λ i T ij = ∫ 0 λ i T ij t z e − t d t . Un développement plus poussé de la formulation géométrique-gamma est nécessaire car il existe une quasi-singularité dans la matrice hessienne. Dans cet article, nous démontrons le modèle TTE formulé uniquement sous détection parfaite.

Modèle de l'espace à l'événement

Étant donné que le modèle TTE nécessite des estimations du taux de mouvement afin de définir les périodes d'échantillonnage de manière appropriée, nous avons développé le modèle STE qui ne nécessite pas cette information auxiliaire. Le modèle STE est conceptuellement similaire au modèle TTE, mais nous réduisons chaque occasion d'échantillonnage à un échantillon instantané. Pour cette raison, les estimations sont indépendantes du taux de déplacement des animaux. Comme avec le modèle TTE, nous commençons par modéliser le nombre d'animaux en vue d'une caméra en utilisant la distribution de Poisson 1. Cependant, au lieu d'observer le temps jusqu'à ce que nous observions un animal en utilisant la distribution exponentielle, nous pouvons plutôt collecter des données sur la quantité de l'espace S entre les animaux. Comme avec le modèle TTE, lorsque les événements d'intérêt sont distribués de Poisson, l'intervalle (d'espace dans ce cas) entre eux est distribué de façon exponentielle S

Afin d'estimer la quantité d'espace entre les animaux, nous prenons des observations de zones aléatoires du paysage à un instant dans le temps. Si un observateur devait dessiner à plusieurs reprises des zones aléatoires du paysage jusqu'à ce qu'il trouve un animal, le soi-disant STE serait la zone totale échantillonnée jusqu'à ce point. Parce que l'échantillon est instantané, la moyenne STE E[S] = 1/λ ne dépend que du nombre d'animaux, nous pouvons donc estimer la densité sans aucune autre contrainte. Lors de l'utilisation de photographies en accéléré, la probabilité de détection est définie comme la probabilité qu'un animal soit capturé et correctement identifié étant donné qu'il se trouve dans le champ de vision de la caméra. Comme pour le modèle TTE, nous développons ce modèle en supposant une détection parfaite, que nous aborderons plus loin dans la discussion.

Observer S en pratique, nous déployons au hasard des caméras time-lapse qui prennent des photos à des moments prédéfinis. Contrairement au modèle TTE, où nous divisons les occasions d'échantillonnage en périodes d'échantillonnage, nous définissons maintenant les occasions d'échantillonnage comme un seul instant dans le temps. A chaque dégustation j = 1, 2, …, J (par exemple, toutes les 1 h), nous observons un instantané du nombre d'animaux en vue de chaque caméra. Nous enregistrons la STE comme la surface totale échantillonnée avant qu'un animal ne soit observé pour la première fois.

A titre d'exemple, nous examinons toutes les photographies prises en une seule fois (j = 1). Nous calculons d'abord l'aire de chaque caméra suivant l'équation. 5. Étant donné que nous utilisons des caméras time-lapse au lieu de caméras à capteur de mouvement, la distance maximale r est défini par des points de repère sur le terrain plutôt que par la distance de déclenchement. Après avoir commandé les caméras au hasard, nous parcourons les photographies jusqu'à ce que nous trouvions le premier animal détecté. Si la caméra 1 (avec zone une1) contient au moins un animal, nous enregistrons l'espace jusqu'au premier événement Sj=1 = une1. Si, à la place, la caméra 1 est vide mais la caméra m contient au moins un animal, nous enregistrons Sj=1 = une1 + une2 +… + unem (Fig. 3). Un exemple d'histoire de rencontre avec J = 5 avec une zone de caméra moyenne a ¯ = 30 m 2 peut ressembler Sj = <180 m 2 , 30 m 2 , N / A, 300 m 2 , N / A>, où une occasion d'échantillonnage censurée à droite est représentée par N / A.

Estimateur d'échantillonnage instantané

Nous pouvons convertir en abondance en suivant l'équation. 6.

Hypothèses

Les trois estimateurs d'abondance supposent une fermeture démographique et géographique de la zone d'étude, un placement aléatoire des caméras et des observations indépendantes des animaux. Pour répondre aux hypothèses de fermeture, une base de sondage et une période d'échantillonnage appropriées devraient être choisies pendant lesquelles la population est fermée à la naissance, à la mort, à l'immigration et à l'émigration. Bien que les modèles supposent une fermeture démographique et géographique au niveau de la base de sondage, il est important de noter qu'ils ne supposent pas une fermeture géographique au niveau de la parcelle, car N-les modèles de mélange le font (Royle 2004 ). Deuxièmement, les caméras doivent être déployées de manière aléatoire dans le paysage plutôt que de cibler des éléments tels que des routes ou des sentiers (Rowcliffe et al. 2013 ). Les animaux ne doivent être ni attirés ni repoussés par les caméras, les sites doivent donc être sans appâts et peu perturbés. Ensuite, les détections d'animaux sont supposées indépendantes dans l'espace et dans le temps. Tant que les caméras sont déployées de manière aléatoire, les propriétés de l'échantillonnage aléatoire signifient que les animaux capturés par une caméra ne sont plus ou moins susceptibles de passer devant la caméra suivante. Cependant, il est légèrement plus difficile d'aborder l'indépendance des détections d'animaux à une seule caméra. Nous devrions tenir compte du comportement des animaux lors de la définition des occasions d'échantillonnage et laisser suffisamment de temps aux animaux pour se redistribuer à travers le paysage. Nous pouvons aider à aborder l'indépendance des détections en sélectionnant des occasions d'échantillonnage de manière aléatoire ou systématique, mais nous pouvons toujours voir une autocorrélation entre les observations. Dans ces cas, l'amorçage peut aider à estimer correctement la variance.

Les modèles TTE et STE supposent que les animaux suivent une distribution de Poisson à l'échelle spatiale de la caméra. Si les animaux sont regroupés en raison des caractéristiques du paysage, nous pourrions incorporer des covariables sur λ pour aider à gérer la variance supplémentaire du paysage. De plus, le modèle TTE nécessite une estimation indépendante du temps moyen nécessaire à un animal pour se déplacer dans la zone de la caméra. Ces estimations peuvent être obtenues grâce à des données auxiliaires comme les colliers du système de positionnement global (GPS).

Tous les modèles sont actuellement formulés en supposant que la probabilité de détection est de 1. Lors de l'utilisation de photographies en accéléré, comme dans les méthodes STE et IS, cela peut être assez raisonnable. Les caméras prennent des photos à des intervalles spécifiés, qu'elles détectent ou non un animal. Tant que la vue devant la caméra est suffisamment claire et que les téléspectateurs sont formés de manière cohérente, les photographies reflètent une véritable histoire de capture de la présence et de l'absence des animaux. D'autre part, les caméras à capteur de mouvement posent un problème plus important pour la détection. Étant donné que la probabilité de détection diminue avec la distance (Rowcliffe et al. 2011 , Howe et al. 2017 ), l'utilisateur peut vouloir utiliser uniquement les photographies d'animaux à une courte distance de l'appareil photo afin qu'ils puissent supposer une probabilité de détection parfaite. Nous encourageons les futurs travaux d'extension de ces modèles lorsque P < 1.

Simulation

Nous avons effectué des simulations mécanistes pour évaluer les estimations d'abondance et les variances de ces estimations pour les trois modèles. Nous avons simulé des taux de déplacement lents et rapides pour des populations de 10 animaux et 100 animaux. Chaque individu a effectué une marche aléatoire indépendante non corrélée pour 1000 pas avec des longueurs de pas fixes (longueur 1 pour la population lente et longueur 3 pour la population rapide) et des angles de virage aléatoires, délimités dans une zone unitaire de 30 × 30. Les animaux ont été capturés à un moment donné dans l'une des 10 caméras carrées de 1 × 1 unité placées au hasard si leurs coordonnées se trouvaient dans les coordonnées de la caméra, y compris deux bordures.

Pour les méthodes IS et STE, nous avons créé des historiques de rencontres basés sur le nombre d'animaux dans chaque caméra à chaque dixième pas de temps. Pour la méthode IS, nous avons utilisé le nombre d'animaux dans les caméras à chaque instant échantillonné. Pour la méthode STE, nous avons créé une liste ordonnée au hasard des caméras à chaque pas de temps échantillonné et enregistré le numéro de la première caméra qui contenait au moins un animal pendant cette période. Pour le modèle TTE, nous avons échantillonné les animaux lors d'occasions d'échantillonnage en 10 étapes (chaque étape représentait une période d'échantillonnage dans l'occasion d'échantillonnage). Nous avons laissé 10 étapes entre la fin d'une occasion d'échantillonnage et le début de la suivante. À chaque caméra et à chaque occasion d'échantillonnage, nous avons enregistré le nombre de pas jusqu'à ce que le premier animal soit capturé dans la caméra.

Nous avons effectué 1000 simulations pour chaque combinaison de longueurs de pas (rapide et lent) et de taille de population (10 et 100). Nous avons calculé l'erreur standard sur chaque estimation en utilisant les formules d'erreur standard analytiques et la méthode delta. Pour vérifier nos estimations d'erreur type, nous avons également calculé l'écart type des estimations d'abondance à partir des simulations répétées.

Étude de cas : estimation de l'abondance des wapitis

Pour démontrer l'utilisation de ces méthodes sur le terrain, nous avons utilisé un ensemble de données de 80 caméras distantes déployées en février 2016. Nous avons déployé ces caméras dans les montagnes Beaverhead de l'Idaho sur un mélange de terres publiques et privées, avec la permission des propriétaires fonciers. La zone d'étude a été définie par une zone tampon de 2 km autour de 3525 emplacements GPS du 18 décembre 2014 au 20 mars 2015 de 33 veaux et femelles wapitis. Cette zone était caractérisée par des communautés d'herbes et d'armoises du désert élevé et des collines balayées par le vent, où les déplacements des wapitis n'étaient pour la plupart pas limités par la topographie ou la végétation dense. Nous avons comparé les estimations de nos modèles avec les estimations d'abondance d'un relevé aérien de février 2009 qui a été mené dans cette zone et corrigé pour le biais de visibilité (Samuel et al. 1987 , 1992 ). Nous reconnaissons qu'il ne s'agit pas d'une véritable abondance, mais cela sert de chiffre approximatif avec lequel comparer nos estimations.

Dans le cadre d'échantillonnage, nous avons sélectionné au hasard neuf parcelles en utilisant un échantillonnage stratifié par tessellation aléatoire généralisé (GRTS) (Stevens et Olsen 2004) avec le package R spsurvey (Kincaid et Olsen 2017 , R Core Team 2015 ). L'échantillonnage stratifié par pavage aléatoire généralisé permet à l'utilisateur de remplacer les parcelles dans l'échantillon ordonné, nous avons donc remplacé deux parcelles en raison du manque d'accessibilité pendant l'hiver et/ou du manque d'approbation du propriétaire foncier (Stevens et Olsen 2004). Nous avons divisé chaque parcelle de 1,5 × 1,5 km en neuf sections égales et avons systématiquement placé une caméra dans chaque section. Dans les limites de la sous-parcelle de 500 × 500 m, nous avons tenté de placer la caméra de manière à maximiser la capture des wapitis. Cependant, dans cette zone d'étude, une sous-parcelle de 500 × 500 m est relativement homogène, et les observations sur le terrain suggèrent que le mouvement des wapitis était assez libre à cette échelle. Ainsi, bien que le placement subjectif au niveau de la sous-parcelle n'adhère pas à un échantillonnage aléatoire parfait, nous ne pensons pas avoir violé gravement l'hypothèse. Lors du placement des caméras, nous nous sommes assurés qu'il n'y avait pas deux caméras sur la même route, le même sentier ou la même crête, afin de réduire l'autocorrélation entre les caméras. En raison du manque d'arbres, nous avons placé les caméras sur des poteaux en T à une hauteur approximative de 4 à 5 pieds. Nous avons orienté les caméras vers le nord pour limiter la lumière directe du soleil dans le cadre et dégagé toute végétation obstruant la vue de la caméra. Le flash infrarouge, les appareils photo déclenchés par le mouvement (modèles HC600, PC800 et PC900 Reconyx, Holmen, Wisconsin, États-Unis) avaient une sensibilité de déclenchement élevée et prenaient des rafales de cinq images sans délai entre les activations de déclenchement. En plus du déclencheur de mouvement, les caméras ont pris des photos toutes les cinq minutes de 06h00 à 18h00.

Nous avons calculé la zone visible de la caméra par les spécifications de la caméra (TrailcamPro 2017) à l'aide de l'équation. 5. Nous avons basé la zone de la caméra visible sur le modèle Reconyx HC600, en laissant θ = 42°. Les caméras avaient des vues longues et sans entrave, alors nous avons mis r = 50 m pour réduire les erreurs de classification et de décompte. Nous n'avons compté que les wapitis à cette distance, que nous avons identifiés grâce à des drapeaux placés sur le terrain.

Pour le modèle TTE, nous avons estimé la durée de la période d'échantillonnage à 1 h. Nous avons estimé la distance à travers une caméra à 30 m et calculé la vitesse des wapitis à partir de 1746 emplacements à partir de 53 colliers GPS dans la région de Beaverhead à partir de janvier 2015 (IDFG, données non publiées). La vitesse médiane des wapitis était d'environ 30 m/h (y compris les périodes de recherche de nourriture et de repos), nous avons donc fixé la durée de la période d'échantillonnage à une heure. À chaque caméra, nous avons échantillonné pendant quatre heures (quatre périodes d'échantillonnage d'une heure), en commençant toutes les huit heures tout au long de février 2016. À chaque occasion d'échantillonnage, nous avons enregistré la première période au cours de laquelle un wapiti a été détecté. Si aucun wapiti n'a été détecté au cours d'une occasion d'échantillonnage donnée, nous avons censuré à droite cette occasion.

Pour le modèle STE, nous avons créé une liste de caméras ordonnée au hasard et enregistré la première caméra qui a détecté des wapitis à chaque occasion d'échantillonnage. Bien que l'échantillonnage doive être instantané, nous avons défini la période d'échantillonnage à 1 min pour nous assurer d'avoir suffisamment de détections. Toutes les photographies d'élans pendant cette minute comptaient comme une détection. Nous avons échantillonné chaque caméra pendant une minute toutes les heures, du 1er au 13 février 2016. Nous avons sélectionné cette période pour nous assurer que les wapitis ne migraient pas vers ou hors de l'aire d'hivernage. Si aucune caméra n'a observé de wapitis à une occasion d'échantillonnage donnée, nous avons censuré à droite cette occasion.

Pour l'estimateur IS, nous avons compté tous les wapitis visibles dans un sous-ensemble de photographies prises entre le 1er février et le 29 février 2016. Nous avons utilisé des photographies prises à l'heure, toutes les heures, afin de réduire l'autocorrélation entre les échantillons. Si aucune photographie n'a été prise à une occasion donnée, nous avons enregistré le compte comme zéro. Idéalement, lors de l'utilisation de comptages répétés à aire fixe, les réplicats spatiaux doivent être re-randomisés à chaque fois. Cependant, avec l'estimateur IS, les caméras ne sont pas redéployées à chaque échantillonnage j, l'estimateur de variance doit donc tenir compte de la corrélation potentielle entre les dénombrements sur la même caméra. Étant donné que la plupart des estimateurs analytiques de la variance peuvent être faiblement biaisés lorsque les échantillons sont corrélés, nous voulions tester les performances de notre estimateur par rapport à l'estimation de l'erreur type à partir d'un bootstrap non paramétrique (Efron et Tibshirani 1993 ). Nous avons créé 1 000 nouveaux ensembles de données en échantillonnant les caméras avec remplacement et en prenant tous les comptes sur ces caméras. Nous avons estimé l'abondance avec chaque ensemble de données. Nous avons estimé l'erreur type de N ^ avec l'écart type de ces estimations répétées.


Résultats

Comparaison des méthodes de collecte pour les abeilles indigènes

Le nombre de spécimens collectés et leur richesse taxonomique différaient selon les méthodes de collecte (tableau 2). Le filet de balayage ciblé était de loin la méthode la plus efficace pour échantillonner les abeilles en ce qui concerne à la fois l'abondance et la richesse de l'unité taxonomique, et les pièges à girouettes bleues étaient la deuxième méthode la plus efficace en termes de nombres absolus (tableau 2, annexe S2 : tableau S1). Cependant, lorsqu'ils sont standardisés pour approximativement une durée d'échantillonnage égale à celle des autres méthodes (3 h), les pièges à girouettes bleues ont capturé un nombre comparable d'abeilles à panser (tableau 2).

Méthode Filet de balayage ciblé girouette bleue Palette jaune Piège à casseroles bleu Piège à casserole jaune Grand piège à casserole jaune
Individus pris 1324 347 (3,86)‡ ‡ Les nombres entre parenthèses sont divisés par 90 pour normaliser les résultats à 3 h afin de comparer quantitativement les résultats avec les autres méthodes.
15 (0,17)‡ ‡ Les nombres entre parenthèses sont divisés par 90 pour normaliser les résultats à 3 h afin de comparer quantitativement les résultats avec les autres méthodes.
8 15 6
Unités taxonomiques capturées† † Compte tenu de la variation de la taille corporelle entre les sexes (K. S. Prendergast, données non publiées), et les différences connues dans les préférences de couleur entre les sexes (Heneberg et Bogusch 2014 ), pour les espèces où les deux sexes ont été collectés, celles-ci ont été traitées comme des unités taxonomiques distinctes.
134 31 (0,34)‡ ‡ Les nombres entre parenthèses sont divisés par 90 pour normaliser les résultats à 3 h afin de comparer quantitativement les résultats avec les autres méthodes.
10 (0,11)‡ ‡ Les nombres entre parenthèses sont divisés par 90 pour normaliser les résultats à 3 h afin de comparer quantitativement les résultats avec les autres méthodes.
7 6 5
Genres capturés 20 11 7 4 3 2
Des familles capturées 4 4 4 3 3 2
  • † Étant donné la variation de la taille corporelle entre les sexes (K. S. Prendergast, données non publiées), et les différences connues dans les préférences de couleur entre les sexes (Heneberg et Bogusch 2014 ), pour les espèces où les deux sexes ont été collectés, celles-ci ont été traitées comme des unités taxonomiques distinctes.
  • Les nombres entre parenthèses sont divisés par 90 pour normaliser les résultats à 3 h afin de comparer quantitativement les résultats avec les autres méthodes.

Les pièges à girouettes bleues ont capturé plus d'individus et d'unités taxonomiques que les pièges à girouettes jaunes, tandis que les pièges à girouettes jaunes étaient plus efficaces que les pièges à girouettes bleues. Les grands pièges jaunes (non UV) étaient les moins efficaces (tableau 2).

Il y avait des différences significatives dans le nombre d'abeilles indigènes individuelles capturées entre les différentes méthodes (P < 0,0001 Annexe S2 : Tableau S1). Toutes les comparaisons par paires entre le filet de balayage ciblé et toutes les méthodes passives étaient significativement différentes (P < 0,0001). Toutes les comparaisons par paires entre les pièges à girouettes bleues et d'autres méthodes étaient significativement différentes (P < 0,0001 Annexe S2 : Tableau S2), mais ne l'étaient pas une fois que les données des pièges à girouette ont été normalisées (P > 0,05 Annexe S5 : Tableau S2). Il y avait une interaction significative méthode × habitat (P < 0,0001 Annexe S2 : Tableau S1), mais les principaux résultats de la supériorité des filets de balayage ciblés étaient cohérents dans tous les habitats (Fig. 2).

La richesse des unités taxonomiques différait également entre les méthodes d'échantillonnage (P < 0,0001, Annexe S2 : Tableau S3, Annexe S3 : Tableau S1), suivant un schéma similaire à celui des abondances (Annexe S2 : Tableau S4). Les filets de balayage ciblés ont capturé plus de 90 % de toutes les unités taxonomiques (tableau 2). Les pièges à bac bleu ont capturé un peu plus d'unités taxonomiques que les pièges à bac jaune, mais la différence n'était pas significative (tableau 2, annexe S2 : tableau S4). Comme pour l'abondance, les pièges à girouettes bleues capturaient globalement plus d'unités taxonomiques que les autres méthodes passives (tableau 2 annexe S2 : tableau S4), mais pas lorsque les taux de capture étaient normalisés à trois heures (tableau 2 annexe S5 : tableau S4). Il n'y avait pas d'interaction méthode × habitat (P = 0,376 Annexe S2 : Tableau S3).

Sur les 145 unités taxonomiques (séparées pour chaque sexe), parmi celles qui m ≥ 10, tous les 43 ont été collectés à des fréquences plus élevées par un filet de balayage ciblé, à l'exception de quatre : Amegilla chlorocyanea (femelle 196 girouette bleue, 17 filets de balayage ciblés, 2 girouette jaune et 1 piège bleu) A. chlorocyanée (mâle 68 girouette bleue et 9 filet de balayage ciblé) le cleptoparasite de Amegilla, Thyreus waroonensis (femelle 11 girouettes bleues et 2 filets de balayage ciblés) et Ricin Lasioglossum (Chilalictus) (femelle 14 girouettes bleues, 12 filets de balayage ciblés, 9 pièges jaunes, 4 girouettes jaunes et 2 pièges bleus Annexe S3 : Tableau S1).

Aucune espèce n'était exclusive aux grands pièges jaunes ou aux pièges UV-bleu ou jaune-UV. Seulement deux espèces, Lasioglosse (Chilalictus) sp.12 (femelle) et Braunsapis nitida (femelle), les deux singletons, étaient exclusifs aux pièges à girouettes jaunes. Cinq unités taxonomiques étaient exclusives aux pièges à girouettes bleues (Lasioglossum (Chilalictus) lanarium [Masculin], Lasioglossum (Chilalictus) inflatum [femelle], Homalictus (Homalictus) sphecodoides [femelle], tous les singletons, Euryglossula fultoni [Masculin, m = 3], et L. (Chilalictus) lanarium [femelle, m = 4]). En revanche, 98 unités taxonomiques ont été capturées exclusivement par des filets de balayage ciblés (Annexe S3 : Tableau S1).

Il y avait une interaction significative entre le sexe et la méthode (P = 0,0002), indiquant que les sexes ont été échantillonnés différemment selon la méthode utilisée (Annexe S2 : Tableau S5).

Les courbes de raréfaction et les estimations de Chao ont suivi le même schéma général basé sur les nombres observés d'unités taxonomiques par méthode d'échantillonnage (Tableau 3 Annexe S4 : Fig. S1). Alors que les méthodes d'échantillonnage passives suivaient une faible pente avec un effort d'échantillonnage croissant (Annexe S4 : Fig. S1), le filet suivait un schéma curviligne et n'avait pas encore atteint un plateau (Annexe S4 : Fig. S1), indiquant que malgré un effort d'échantillonnage élevé, plus d'unités taxonomiques étaient probables avec un effort d'échantillonnage accru. En considérant les unités taxonomiques capturées en pourcentage de l'estimation Chao 1, les filets, les grands bacs jaunes et les bacs bleus avaient des valeurs supérieures à 70 %, alors que le nombre collecté dans les aubes bleues n'était que de 55,6 % de la valeur estimée, et pour le jaune pièges à girouettes et à plaques jaunes, la richesse des unités taxonomiques n'était que de 46,7% et 44,5%, respectivement, de la valeur estimée (tableau 3). Il convient de noter que les intervalles de confiance des estimations de Chao 1 étaient relativement larges (tableau 3).

Méthode Observé Chao 1 signifie Limite inférieure de l'IC à 95 % Limite supérieure de l'IC à 95 % Chao 1 SD %obs de Chao 1
Grandes casseroles jaunes 4 5.2 4.12 16.5 2.14 76.9
casseroles jaunes 6 13.5 6.92 66.7 10.9 44.5
casseroles bleues 9 12.4 9.58 29.4 3.9 72.3
Aubes jaunes 10 21.4 12.1 73.8 12.3 46.7
Aubes bleues 32 57.5 39.4 119.9 17.9 55.6
Filet de balayage ciblé 134 181.5 154.6 243.5 21.2 73.8

Remarques

  • IC, intervalles de confiance SD, écart type %obs, pourcentage du nombre observé d'unités taxonomiques est de celui calculé par l'analyse Chao 1.

Une matrice de similarité Bray-Curtis de la composition des espèces a révélé que des cinq méthodes de collecte, les pièges à casseroles de différentes couleurs étaient les plus similaires. Les aubes bleues et jaunes ressemblaient davantage aux pièges à bac bleu qu'aux pièges à bac jaune. La méthode la plus efficace—le filet de balayage ciblé—avait une composition en espèces très similaire aux pièges à girouettes bleues, mais une faible similitude avec les autres méthodes (tableau 4). Une analyse NMDS comparant la composition taxonomique entre les méthodes avait un faible stress (0,01), indiquant un bon ajustement aux données, et a montré que les deux petits pièges à casserole réfléchissant les UV étaient les plus similaires l'un à l'autre (Fig. 3). La composition taxonomique des abeilles capturées dans de grands pièges jaunes était très différente de toutes les autres méthodes. Le filet de balayage ciblé était également différent de toutes les autres méthodes, mais plus semblable aux girouettes bleues.

Méthode Filet de balayage ciblé girouette bleue Palette jaune Piège à casseroles bleu Piège à casserole jaune Grand piège à casserole jaune
Filet de balayage ciblé
girouette bleue 23.75
Palette jaune 5.68 15.77
Piège à casseroles bleu 4.15 21.36 24.53
Piège à casserole jaune 4.01 15.04 22.31 30.58
Grand piège à casserole jaune 2.53 5.88 0.00 14.11 0.00

Abeilles indigènes observées vs. filet de balayage ciblé

En raison de leur accessibilité (hors de portée du filet de balayage entomologique) ou de la difficulté de capturer les taxons à vol rapide, toutes les abeilles observées n'ont pas été prises au filet. Sur un total de 5299 abeilles indigènes enregistrées par échantillonnage actif, 1324 ont été capturées dans un filet et 4366 ont été observées : un rapport d'abeilles observées par rapport aux abeilles capturées dans un filet de 1:3. Dans tous les relevés, une moyenne de 6,32 ± 1,07 (erreur standard) d'abeilles a été capturée contre 17,16 ± 4,01 observées. La proportion d'abeilles en filet par rapport aux abeilles observées ne différait pas selon l'habitat (P = 0,147 Annexe S2 : Tableau S2). Il y avait, cependant, des différences significatives entre les taxons dans la proportion d'abeilles capturées par rapport à celle des abeilles observées (<0.001 Tableau 5 Annexe S2 : Tableau S6), avec des différences dans la plupart des comparaisons par paires entre les taxons (test post hoc de Tukey Annexe S2 : Tableau S7). Les plus grandes différences dans les taux de capture nets:observés concernaient le genre Amegilla, qui ne comprenait qu'une seule espèce de grande taille (A. chlorocynea), et pour Exoneur, un genre de petite abeille sociale. Pour Amegilla, les plus grands nombres observés par rapport aux filets étaient liés à leur vol extrêmement rapide et erratique et à leur courte durée d'atterrissage à la fleur. Pour Exoneur, le rapport élevé observé:pris au filet était probablement dû au grand nombre qui se nourrit souvent simultanément sur les buissons, ce qui rend le filet de certains individus facile mais impossible à attraper tous ceux qui se nourrissent. À l'exception des taxons rarement rencontrés, la plupart des taxons ont été observés plus fréquemment que pris au filet, à l'exception de Méroglossa, représenté par une seule espèce (M. rubricata) qui était souvent observée dans les nids-pièges mais rarement en quête de nourriture, et Lipotriches, représenté principalement par L. flavoviridis, une espèce commune présente sur la plupart des sites et se nourrissant d'une flore très variée.

Vol très rapide et rapide, se pose rarement longtemps sur les fleurs

À la portée des filets de balayage, se nourrissant souvent de végétation qui peut être balayée au filet

Rarement rencontré seul

Voler rapidement autour des inflorescences souvent dans un nuage

Jamais au niveau du sol, la flore préfère les branches d'arbres en fleurs, mais si elles sont à portée de main, elles sont relativement faciles à capturer en balayant les nuages

Vitesse de vol intermédiaire

Rarement rencontré seul

Privilégier les arbustes et les arbres pour se nourrir, jamais au ras du sol

Vitesse de vol intermédiaire

Préférez les arbustes et les arbres pour se nourrir, jamais au ras du sol

Rarement rencontré seul

Voler rapidement autour des inflorescences souvent dans un nuage

Jamais au niveau du sol, la flore préfère les branches d'arbres en fleurs, mais si elles sont à portée de main, elles sont relativement faciles à capturer en balayant les nuages

Les mâles peuvent être territoriaux autour des fleurs

Vitesse de vol intermédiaire

Fourrage à plusieurs hauteurs, y compris la flore basse

Vitesse de vol intermédiaire

Se nourrissent souvent de la flore basse

Vitesse de vol intermédiaire

Les pollinisateurs bourdonnants – restent sur les fleurs plus longtemps

Fourrage à différentes hauteurs, y compris au niveau du sol

Ne se poser que brièvement sur les fleurs

Fourrage à différentes hauteurs, y compris au niveau du sol

Vitesse de vol intermédiaire

Fréquemment observé juste au repos à l'intérieur des entrées des nids-pièges

Vitesse de vol intermédiaire

Privilégier les arbustes et les arbres pour se nourrir, jamais au ras du sol

  • Catégories de taille du corps : petit, 0,48 à 1,78 mm ITD moyen, 1,79 à 3,10 mm de large, 3,11 à 4,41 mm. Les catégories étaient basées sur la soustraction de la taille corporelle minimale, telle que mesurée par la distance intertégulaire (ITD), du maximum et en divisant par trois.

Collections observées vs passives

Les abeilles indigènes et les abeilles mellifères ont été étudiées à l'aide d'enregistrements d'observation et de collectes passives. Dans les deux cas, les dénombrements d'observation dépassaient largement les nombres enregistrés par toutes les méthodes d'échantillonnage passives combinées. Un total de 572 abeilles a été collecté à travers toutes les méthodes d'échantillonnage passives, tandis que 19 825 ont été observées, soit des nombres observés 34,7 fois supérieurs aux nombres capturés par les pièges passifs. Le nombre d'abeilles indigènes observées était 11 fois supérieur à celui capturé passivement (391 individus d'abeilles indigènes capturés par des pièges passifs, contre 4366 observés), malgré le fait qu'il y ait plus de méthodes passives qu'actives employées.

Nids-pièges

Seul un petit sous-ensemble des espèces potentielles d'abeilles nichant dans les cavités a utilisé les nids-pièges. Sur les 34 mégachilidés nicheurs dans les cavités (y compris le cleptoparasite Cœlioxys) capturées, seules 10 espèces ont utilisé les nids-pièges, et sur les 17 abeilles hylaeines, seules quatre espèces ont utilisé les nids-pièges (tableau 6). Cependant, l'intérêt des nids-pièges était de pouvoir confirmer les mâles et les femelles appartenant à la même espèce, à savoir aucun mâle de Megachile (Eutricharaea) chrysopyga, Fabricant de Megachile (Mitchellapis), et Hylaeus (Euprosopis) violaceus ont été collectés sur le terrain, mais ils ont émergé de tubes d'abeilles. Non seulement la composition des espèces nichant dans les pièges ne représentait qu'une fraction de la diversité des espèces nichant dans les cavités, mais aussi les abondances relatives ne reflétaient pas celles capturées sur le terrain (tableau 6).

Taxon Espèce Nombre de tubes Nombre d'abeilles émergées Proportion de tubes Proportion d'abeilles émergées Nombre d'abeilles nichant dans des cavités collectées lors des relevés Proportion d'abeilles nichant dans des cavités collectées lors des relevés
Hylaeinae Hylaeus (Euprosopis) violaceau 15 68 0.093 0.133 3 0.004
Hylaeus (Gnathoprosopis) amiculus 1 1 0.006 0.002 7 0.009
Hylaeus (Gnathoprosopis) euxanthus 1 1 0.006 0.002 14 0.018
Meroglossa rubricata 4 8 0.025 0.016 19 0.024
Mégachilidés Megachile (Eutricharaeae) obtusa 3 14 0.019 0.028 27 0.035
Fabricant de Megachile (Mitchellapis) 39 145 0.24 0.285 3 0.004
Megachile apicata 1 1 0.006 0.002 10 0.013
Aurifrons Megachile 6 37 0.037 0.070 25 0.032
Megachile erythropyga 85 227 0.525 0.446 6 0.008
Megachile fultoni 1 1 0.006 0.002 24 0.031
Megachile « houstoni » M306/F367 † † Espèce non décrite, déposée au WA Museum sous le numéro M306/F367.
1 1 0.006 0.002 151 0.195
Megachile ignita 3 3 0.019 0.006 20 0.026
Megachile (Hackeriapis) tosticauda 2 2 0.012 0.004 6 0.008
Totaux 162 509
  • Le nombre de tubes occupés, le nombre d'abeilles à émerger, la proportion de tous les tubes occupés par une espèce donnée, la proportion de toutes les abeilles nichant dans les cavités sont présentés. Pour comparer avec les résultats de l'enquête, le nombre d'une espèce donnée collectée lors des enquêtes sur les abeilles et la proportion de toutes les abeilles nichant dans des cavités collectées lors des enquêtes (c. .
  • † Espèce non décrite, déposée au WA Museum sous le numéro M306/F367.

Jardins mobiles

Les jardins mobiles ont échoué, malgré les plantes ayant une forte densité de fleurs. Pendant les quatre mois (56 jours d'échantillonnage), seuls S. aemula a été visité, et sur seulement cinq jours sur trois sites. Il faut noter que S. aemula était la seule plante qui a fleuri tout au long de la saison d'enquête, les trois autres ont été limitées au premier mois (seulement D. revoluta avait quelques fleurs encore présentes en décembre). Au total, 15 abeilles ont visité les plantes de jardin mobiles, mais une seule d'entre elles était indigène (L. (Chilalictus) ricin, femelle)—les autres étaient des abeilles.

Comparaison de différentes méthodes d'échantillonnage passif pour les abeilles mellifères et les abeilles indigènes et l'influence du type d'habitat

Il y avait une différence significative dans les taux de capture d'individus d'abeilles indigènes par différentes méthodes (P < 0,001 Annexe S2 : Tableau S8). Beaucoup plus d'individus ont été capturés dans les pièges à girouettes bleues que toutes les autres méthodes (P < 0,001) aucune autre comparaison n'était significativement différente (P > 0,05). Il n'y a pas eu d'interaction significative entre la méthode et l'habitat (P = 0,115 Annexe S2 : Tableau S8), bien que les pièges à girouettes attrapent plus d'abeilles dans la brousse que dans les zones résidentielles, où les autres méthodes étaient comparables entre les habitats, mais la taille de l'échantillon était trop petite pour des conclusions valables (Fig. 2a).

Les taux de capture des abeilles domestiques différaient considérablement selon la méthode (P < 0,001 Annexe S2 : Tableau S6). Les comparaisons par paires entre les deux pièges à palettes colorées et tous les pièges à bac étaient hautement significatives (P < 0,001). Les girouettes bleues ont également capturé un nombre significativement plus élevé d'abeilles domestiques que les girouettes jaunes (P = 0,001). Les comparaisons entre les pièges à casseroles n'étaient pas significatives. Il y avait aussi une interaction significative méthode × habitat (P < 0,001 Annexe S2 : Tableau S8), où les pièges à girouettes, qui ont capturé plus d'abeilles dans l'ensemble, avaient des taux de capture plus élevés dans les vestiges de brousse que dans les habitats résidentiels, alors que pour les autres méthodes, ils n'ont capturé aucune abeille dans la plupart des cas, à l'exception de quelques valeurs aberrantes, dans les deux types d'habitat (Fig. 2b).

En évaluant chaque méthode pour déterminer s'il y avait des différences dans l'abondance des abeilles indigènes et des abeilles mellifères, il a été constaté que les différences relatives dans l'abondance des abeilles mellifères par rapport aux abeilles indigènes différaient entre les méthodes (annexe S2 : tableau S9). Les abondances d'abeilles indigènes et d'abeilles domestiques étaient similaires pour les pièges à girouettes bleues (moyenne d'abeilles indigènes 8,26 ± 1,45 vs moyenne d'abeilles domestiques 9,14 ± 1,27, P = 0,171), alors qu'il y avait une tendance pour les abeilles à être enregistrées à des abondances plus élevées sur la base des dénombrements d'observation (moyenne des abeilles indigènes 94,3 ± 11,0 vs moyenne des abeilles domestiques 360,3 ± 97,1, P = 0,077 Annexe S2 : Tableau S7). Les deux types de pièges à bac jaune ont capturé significativement plus d'abeilles indigènes que d'abeilles domestiques (pièges à bac fluorescents UV, moyenne d'abeilles indigènes 0,392 ± 0,116 vs. P < 0,001 et grand jaune, moyenne abeilles indigènes 0,303 ± 0,119 vs moyenne abeilles domestiques 0,024 ± 0,024, P = 0,001), mais la tendance s'est inversée pour les girouettes jaunes, qui ont capturé six fois plus d'abeilles domestiques que les abeilles indigènes (moyenne abeilles indigènes 0,722 ± 0,172 vs moyenne abeilles domestiques 9,14 ± 2,17, P < 0,001 Annexe S2 : Tableau S9).


Probabilité

Gail F. Dawson MD, MS, FAAEP , dans Easy Interpretation of Biostatistics , 2008

QUANTIFICATION DES ÉVÉNEMENTS CHANCES

Les statistiques déductives sont basées sur la probabilité qu'un certain résultat se produise par hasard. En théorie des probabilités, le mot résultat fait référence au résultat observé. Il ne reflète pas nécessairement les années de vie ajustées sur la qualité (QUALY) comme la variable de résultat que nous voyons dans les essais cliniques. C'est simplement le résultat d'un événement. La gamme des probabilités varie entre 0 (aucune probabilité que l'événement se produise) et 1 (le résultat se produira toujours.) Il est rare de trouver des circonstances dans la nature où la probabilité d'occurrence est égale à 0 ou 1. Si tel était le cas , il ne serait pas nécessaire d'appliquer la théorie des probabilités. Tous les événements étudiés en médecine ont une probabilité d'occurrence comprise entre 0 et 1. Elle s'exprime sous la forme d'un nombre décimal, par exemple 0,35. L'interprétation la plus simple et la plus informative de la probabilité convertit ces valeurs en pourcentages pour exprimer la probabilité que quelque chose se produise. On dit qu'un résultat avec une probabilité de 0,35 a 35% de chance de se produire. En moyenne, cela se produira 35 fois sur 100 opportunités. Il s'ensuit qu'un résultat avec une probabilité de 100 % signifie qu'il n'y a aucune possibilité que le résultat ne se produise pas (mais cela n'arrive jamais !).

UNE p valeur est vraiment une probabilité qu'un résultat donné puisse se produire par hasard. Il est généralement exprimé sous forme décimale, par exemple 0,07. UNE p valeur, multipliée par 100, est un pourcentage. Dans l'exemple ci-dessus, le p une valeur de 0,07 signifie qu'il y a une probabilité de 7 % que le résultat observé puisse se produire par hasard seul. (Ceci est basé sur une hypothèse sous-jacente que certaines conditions ont été remplies, que nous examinerons plus tard.) une moyenne de seulement sept de ces études sur 100 donnerait le résultat que nous observons en se basant uniquement sur le hasard. La raison pour laquelle chaque étude ne donne pas des résultats identiques dans ces situations est que différents échantillons sont utilisés, ce qui entraîne des estimations différentes du paramètre. Nous reparlerons de ce concept mais, pour l'instant, sachez simplement que le p valeur représente une probabilité, qui peut être exprimée en pourcentage.


Expériences sur l'écologie | La biologie

Vous êtes à la recherche d'expériences sur l'écologie ? Vous êtes au bon endroit. L'article mentionné ci-dessous comprend une collection de dix-neuf expériences sur l'écologie : 1. Étude de la structure communautaire 2. Étude de la biomasse 3. Science du sol 4. Écosystème aquatique 5. Analyse physico-chimique de l'eau.

  1. Expériences sur l'étude de la structure communautaire
  2. Expériences sur l'étude de la biomasse
  3. Expériences sur la science du sol
  4. Expériences sur l'écosystème aquatique
  5. Expériences sur l'analyse physico-chimique de l'eau

1. Expérience sur l'étude de la structure communautaire : (8 expériences)

1. But de l'expérience :

Déterminer la taille minimale du quadrat par la méthode de la courbe de surface des espèces.

Conditions:

Clous, corde ou ficelle, échelle métrique, marteau, crayon, cahier.

je. Préparez une structure en forme de L de 1 × 1 mètre dans la zone donnée en utilisant 3 clous et en les attachant avec une corde ou une ficelle.

ii. Mesurez 10 cm d'un côté du bras L et la même chose de l'autre côté de L, et préparez une zone de 10 x 10 cm² en utilisant un autre jeu de clous et de la ficelle. Notez le nombre d'espèces dans cette zone de 10 x 10 cm2.

iii. Augmentez cette superficie à 20 × 20 cm² et notez les espèces supplémentaires qui poussent dans cette zone.

iv. Répétez la même procédure pour 30 × 30 cm², 40 × 40 cm² et ainsi de suite jusqu'à ce que 1 × 1 mètre carré soit couvert (Fig. 67) et notez le nombre d'espèces supplémentaires à chaque fois.

Enregistrez vos données dans le tableau suivant :

v. Préparez un graphique en utilisant les données enregistrées dans le tableau ci-dessus. La taille des quadrats est tracée sur l'axe des X et le nombre d'espèces sur l'axe des Y (Fig. 67 B).

La courbe commence à s'aplatir ou ne montre qu'une augmentation constante (Fig. 67 B) à un point du graphique.

Le point du graphique, auquel la courbe commence à s'aplatir ou ne montre qu'une augmentation constante ou graduelle, indique la taille minimale ou l'aire minimale du quadrat convenant à l'étude.

2. But de l'expérience :

Étudier les communautés par la méthode des quadrats et déterminer le % de fréquence, de densité et d'abondance.

Échelle métrique, ficelle, quatre clous ou quadrat, cahier.

La fréquence est le nombre d'unités d'échantillonnage ou de quadrats dans lesquels une espèce donnée est présente.

La fréquence en pourcentage (%F) peut être estimée par la formule suivante :

La densité est le nombre d'individus par unité de surface et peut être calculée par la formule suivante :

L'abondance est décrite comme le nombre d'individus par quadrat d'occurrence.

L'abondance pour chaque espèce peut être calculée par la formule suivante :

Posez un quadrat (Fig. 68) sur le terrain ou dans une zone spécifique à étudier. Notez soigneusement les plantes qui s'y trouvent. Écrivez les noms et le nombre d'individus d'espèces végétales dans le carnet, qui sont présents dans les limites de votre quadrat. Placez au hasard au moins 10 quadrats (Fig. 69) de la même manière et enregistrez vos données sous la forme du tableau 4.1.

Dans le tableau 4.1, le pourcentage de fréquence, la densité et l'abondance de Cyperus ont été déterminés. Les lectures des six autres plantes, survenues dans les quadrats étudiés, sont également renseignées dans le tableau. Calculez la fréquence, la densité et l'abondance de ces six plantes pour la pratique. (Pour le cours pratique, faites vos propres lectures. Les lectures du tableau 4.1 sont uniquement destinées à donner une explication de la question).

Calculez la fréquence, la densité et l'abondance de toutes les espèces végétales à l'aide des formules données précédemment et notez les résultats suivants :

(i) En termes de % de fréquence (F), le domaine est dominé par…

(ii) En termes de densité (D), le domaine est dominé par…

(iii) En termes d'abondance (A), le domaine est dominé par…

Tableau 4.1 : Taille du quadrat : 50 cm × 50 cm = 2500 cm 2

3. But de l'expérience :

Déterminer le nombre minimum de quadrats requis pour une estimation fiable de la biomasse dans les prairies.

Échelle métrique, ficelle, quatre clous (ou quadrat), carnet de notes, papier millimétré, feuille d'herbier, ruban de violoncelle.

je. Déposez au hasard 20-50 quadrats de taille définie dans la prairie à étudier, dressez une liste des différentes espèces végétales (par exemple, AJ) présentes dans chaque quadrat et notez leurs noms botaniques ou numéros hypothétiques (par exemple, A, B, C,…, J) comme indiqué dans le tableau 42. u

ii. À l'aide des données disponibles dans le tableau 4.2, découvrez le total cumulé du nombre d'espèces pour chaque quadrat.

iii. Maintenant, prenez une feuille de papier millimétré et tracez le nombre de quadrats sur l'axe X et le nombre total d'espèces accumulées sur l'axe Y du papier millimétré.

Observations et résultats :

Une courbe serait obtenue. Notez bien que cette courbe commence également à s'aplatir. Le point à partir duquel cette courbe commence à s'aplatir nous donnerait le nombre minimum de quadrats requis à mettre en place dans la prairie.

4. But de l'expérience :

Étudier la fréquence des espèces herbacées dans les prairies et comparer la distribution de fréquence avec le diagramme de fréquence standard de Raunkiaer.

Quadrat, crayon, cahier, papier millimétré.

je. Disposez 10 quadrats dans la zone donnée et calculez la fréquence en pourcentage des différentes espèces de plantes par la méthode et la formule indiquées ci-dessus dans l'exercice n ° 2.

ii. Organisez vos données sous la forme du tableau 4.3 suivant :

Raunkiaer (1934) a classé les espèces d'une communauté dans les cinq classes suivantes, comme indiqué dans le tableau 4.4 :

Organiser la fréquence en pourcentage des différentes espèces du tableau 4.3 ci-dessus dans les cinq classes de fréquence (A-E) telles que formulées par Raunkiaer (1934) dans le tableau 4.4.

Dessinez un histogramme (Fig. 70) avec le pourcentage du nombre total d'espèces tracé sur l'axe des Y et les classes de fréquence (A-E) sur l'axe des X.

Voici le diagramme de fréquence (Fig. 70) :

Observations et résultats :

L'histogramme prend une courbe en forme de “J” comme suggéré par Raunkiaer (1934), et cela montre la distribution normale du pourcentage de fréquence. Si la végétation de la zone est uniforme, la classe ‘E’ est toujours plus grande que la classe ‘D’. Et dans le cas où la classe ‘E’ est plus petite que la classe ‘D, la communauté ou la végétation de la zone présente des perturbations considérables.

5. But de l'expérience:

Estimer l'indice de valeur d'importance pour les espèces de prairies sur la base de la fréquence relative, de la densité relative et de la dominance relative dans les prairies protégées et pâturées.

Quadrat en bois de 1ࡧ mètre, crayon, cahier.

Qu'est-ce que l'indice de valeur d'importance ?

L'indice de valeur d'importance (IVI) montre l'image complète ou globale de l'importance écologique de l'espèce dans une communauté. L'étude de la structure de la communauté est réalisée en étudiant la fréquence, la densité, l'abondance et la couverture terrière des espèces. Mais ces données ne donnent pas une image globale de l'importance d'une espèce, par exemple, la fréquence nous donne une idée de la dispersion d'une espèce dans la zone mais ne donne aucune idée de son nombre ou de la zone couverte.

La densité donne la force numérique et rien sur la propagation ou la couverture. Une image globale de l'importance écologique d'une espèce dans une communauté est obtenue par IVI. Pour trouver l'IVI, les valeurs en pourcentage de la fréquence relative, de la densité relative et de la dominance relative sont additionnées, et cette valeur sur 300 est appelée indice de valeur d'importance ou IVI d'une espèce.

La fréquence relative (FR) d'une espèce est calculée par la formule suivante :

La densité relative (DR) d'une espèce est calculée par la formule suivante :

La dominance relative d'une espèce est calculée par la formule suivante :

La surface terrière d'une espèce végétale est calculée par la formule suivante :

Surface terrière d'une espèce = p r 2

où p = 3,142, et r = rayon de la tige

je. Découvrez les valeurs de fréquence relative, de densité relative et de dominance relative par les formules mentionnées ci-dessus.

ii. Calculez l'IVI en additionnant ces trois valeurs :

IVI = fréquence relative + densité relative + dominance relative.

Organisez les espèces par ordre d'importance décroissante, c'est-à-dire que l'espèce ayant l'IVI la plus élevée est la plus importante sur le plan écologique et celle ayant la plus faible IVI est la moins importante sur le plan écologique.

6. But de l'expérience:

Déterminer la couverture basale ou la couverture végétale d'une communauté herbacée par la méthode des quadrats.

Quadrat en bois de 1×1 m, Verniercaliper, crayon, cahier.

je. Posez un quadrat à ossature de bois de 1 x 1 mètre au hasard dans une parcelle de végétation sélectionnée et comptez le nombre total d'individus de l'espèce sélectionnée à l'intérieur du quadrat.

ii. Coupez quelques tiges de quelques plantes de cette espèce individuelle et mesurez le diamètre de la tige à l'aide de Verniercaliper.

iii. Calculer la surface terrière des individus par la formule :

Surface terrière moyenne = r 2 où r est le rayon de la tige.

iv. Prenez 5 lectures, organisez-les sous forme de tableau et découvrez la surface terrière moyenne par la formule ci-dessus.

v. Reposez le quadrat au hasard à un autre endroit et notez les mêmes observations dans le tableau.

vi. Posez environ 10 quadrats de la même manière et notez à chaque fois le nombre total d'espèces et la surface terrière moyenne d'un seul individu.

Observations et résultats :

(a) Pour trouver la surface terrière moyenne, divisez la somme de la surface terrière moyenne dans tous les quadrats par le nombre total de quadrats étudiés.

(b) Pour trouver la couverture terrière totale d'une espèce particulière, multipliez la surface terrière moyenne de toutes les observations par la densité de cette espèce particulière comme indiqué ci-dessous :

Couverture terrière d'une espèce particulière = Surface terrière moyenne x Densité (D) de cette espèce.

La couverture terrière d'une espèce particulière est exprimée en … cm2/sq. mètre.

7. But de l'expérience :

Mesurer la couverture végétale des prairies à l'aide de la méthode du cadre ponctuel.

Appareil à cadre ponctuel, feuille de papier quadrillé, feuille d'herbier, ruban de violoncelle, cahier.

Un appareil à cadre ponctuel est un simple cadre en bois d'environ 50 cm de long et 50 cm de haut dans lequel 10 broches mobiles sont insérées à un angle de 45°. Chaque broche mobile mesure environ 50 cm de long.

je. Placer l'appareil ponctuel (avec 10 broches) à un endroit dans la végétation des prairies (Fig. 71) et noter diverses espèces végétales touchées par une ou plusieurs des 10 broches de l'appareil. Traitez cela comme une unité d'échantillonnage.

ii. Maintenant, placez l'appareil au hasard à 10-25 endroits ou plus et notez à chaque fois les différentes espèces de plantes de la même manière. Dans le cas où trois plantes de n'importe quelle espèce touchent trois broches dans une unité d'échantillonnage placée à un endroit, la force numérique de cette espèce particulière dans cette unité d'échantillonnage sera de trois individus. Écrivez cette valeur par rapport à l'espèce en dessous de cette unité d'échantillonnage.

Observations et résultats :

Notez les détails sous la forme du tableau 4.5 suivant :

Calculez maintenant la fréquence en pourcentage de chaque espèce comme déjà fait dans l'exercice n°2. Répartissez les différentes espèces parmi les cinq classes de fréquence (A, B, C, D, E) mentionnées dans l'exercice n° 4, trouvez la valeur en pourcentage de chaque classe de fréquence et préparer un diagramme de fréquence comme fait dans l'exercice n° 4. Comparez le diagramme de fréquence ainsi développé avec le diagramme de fréquence normal.

Découvrez les trois espèces les plus fréquentes dans la zone étudiée. Découvrez également si la végétation est homogène ou hétérogène. Essayez également de déterminer les valeurs de densité des espèces individuelles. Découvrez également à chaque endroit le nombre total d'individus de chaque espèce touchés par 10 quilles de l'appareil point-frame.

8. But de l'expérience :

Préparer une liste des plantes présentes dans une prairie et également préparer une carte le long du transect linéaire.

je. Préparez un transect de 25 pieds de long dans une prairie sélectionnée en attachant chaque extrémité d'une corde de 25 pieds aux boutons supérieurs de deux clous.

ii. Notez les noms des espèces végétales dont la projection touche un bord de la corde le long de la ligne de transect et attribuez-leur tous un numéro défini (par exemple, 1,2,3,4, …etc.).

iii. Prélevez plusieurs de ces échantillons à intervalles réguliers ou irréguliers dans la prairie le long du transect linéaire.

iv. Enregistrez également les espèces végétales de différents types de prairies de la même manière.

Enregistrez vos données dans le tableau 4.6 suivant sous la forme suivante :

Le tableau 4.6 donne la liste complète des plantes présentes dans la prairie sélectionnée. Découvrez également le nom des espèces représentées en nombre maximum dans chaque localité.

Ces données fourniront également une image claire des espèces dominantes de la prairie dans une zone particulière.

2. Expérience sur l'étude de la biomasse : (2 expériences)

Il est généralement exprimé en poids sec de toutes les matières vivantes (végétaux et animaux) dans une zone. Sous la biomasse, nous incluons les plantes (leurs parties aériennes et souterraines) ainsi que les animaux. Les feuilles mortes et les brindilles des plantes sont également prises en considération au moment de l'étude de la biomasse.

Dans les forêts, l'humus est à différents stades de décomposition. Le sol de la forêt reste recouvert de matière organique peu ou pas décomposée. C'est ce qu'on appelle la litière. Une matière partiellement décomposée est présente sous cette couche. C'est ce qu'on appelle duff. De la matière décomposée, qui a perdu sa forme d'origine, est présente sous la poussière et appelée moisissure des feuilles.

9. But de l'expérience :

Mesurer la biomasse végétale aérienne dans une prairie.

Pour déterminer la biomasse d'une zone particulière.

Clous (4), échelle métrique, ficelle, khurpa (un instrument de désherbage), sacs en polyéthylène, four.

je. Faites un quadrat de la taille de 50 cm × 50 cm sur le terrain en creusant les clous et en les reliant avec la ficelle. Éliminez toutes les parties aériennes des plantes poussant dans cette limite à l'aide d'un instrument de désherbage. Collectionnez-les tous dans un sac en polyéthylène.

ii. Récupérez les feuilles mortes et les autres parties des plantes dans le deuxième sac en polyéthylène.

iii. Rassemblez tous les animaux tels que les fourmis, les larves, les vers de terre, les insectes, etc., dans le troisième sac en polyéthylène.

iv. En creusant le sol à environ 20 à 25 cm, sortez toutes les parties souterraines des plantes et ramassez-les dans un sac séparé après lavage.

De la même manière, posez quelques quadrats supplémentaires dans la zone à l'étude et récupérez tous les matériaux dans des sacs en polyéthylène.

Poids sec des parties aériennes = 15 g.

Poids sec des parties souterraines = 4 g.

Poids sec des animaux = 1 g.

. . . Poids sec total = 20 g.

La zone de champ de 50 × 50 cm contient = 20 g. biomasse sèche totale

. . .La zone de champ de 100 × 100 cm contiendra

80 g. est la biomasse de 100 × 100 cm. zone de terrain.

Résultats des différentes parties :

(i) 50 x 50 cm. zone de champ contient 15 g. des parties aériennes.

100 × 100 cm. zone de champ contiendra

= 15×100×100/50×50 = 60 g. biomasse.

(ii) 50 x 50 cm. zone de champ contient 4 g. de pièces souterraines.

100 × 100 cm. zone de champ contiendra

= 4×100×100/50×50 = 16 g. biomasse

(iii) 50 × 50 cm. la zone de champ contient 1 g. d'animaux

100 × 100 cm. zone de champ contiendra

1×100×100/50×50 = 4 g. biomasse.

Une zone de champ d'un mètre carré (100 × 100 cm) contient 80 g. biomasse en termes de poids sec des parties végétales et animales totales.

10. But de l'expérience:

Déterminer des indices de diversité (richesse, Simpson, Shannon-Wiener) dans les prairies pâturées et protégées.

Étudier la diversité des espèces (richesse et régularité), l'indice de dominance, l'indice de similarité, l'indice de dissemblance et l'indice de diversité des espèces dans les prairies pâturées et protégées.

La diversité des espèces est une abstraction statistique à deux composantes.

Ces deux composants sont :

(i) Richesse (ou nombre d'espèces), et

(ii) Uniformité ou équité.

Dans toute prairie à étudier, s'il y a soixante-dix espèces dans un peuplement, alors sa richesse est de soixante-dix. Choisissez des plantes individuelles de différentes espèces à l'aide de khurpa, comptez le nombre d'espèces dans un peuplement de la zone fournie et calculez la richesse. D'un autre côté, si toutes les espèces de la prairie ont un nombre égal d'individus, alors sa régularité ou son équité est élevée et si certaines espèces n'ont que quelques individus, alors la régularité est faible.

Les espèces qui contrôlent le plus le flux d'énergie et l'environnement dans un habitat donné sont appelées dominantes écologiques. Selon Simpson (1949), l'indice de dominance (C) est calculé par la formule

où∑ (sigma) fait référence à la sommation, ni fait référence à la valeur d'importance de l'espèce en termes de nombre d'individus ou de biomasse ou de productivité de chaque espèce sur une unité de surface, et N fait référence au total des valeurs d'importance correspondantes de tous les composants espèces dans la même unité de surface et la même période. Comptez l'indice de dominance par la formule mentionnée ci-dessus.

L'indice de similarité entre deux peuplements de végétation peut être calculé par la formule S = 2 C/(A+B), où S est l'indice de similarité, C est le nombre d'espèces communes aux deux peuplements, et A et B sont le nombre d'espèces sur le peuplement A et le peuplement B. Par exemple, s'il y a 20 espèces sur le site A et 20 sur le site B et que 14 espèces sont communes dans les deux sites, l'indice de similarité (S) sera

(ré) Indice de dissemblance :

L'indice de dissemblance est compté par la formule D = 1 – S, où D est l'indice de dissemblance et S est l'indice de similitude. Par exemple, s'il y a 20 espèces sur le site A et 20 espèces sur le site B et que 14 espèces sont communes dans les deux sites, l'indice de similarité (S) est de 0,7 tel que calculé ci-dessus en cas d'indice de similarité. Par conséquent, l'indice de dissemblance (D) peut être compté, comme

L'indice de diversité des espèces (d) est calculé par la formule suivante donnée par Menhinick (1964) :

où d = indice de diversité, S = nombre d'espèces et N = nombre d'individus de cette espèce particulière.

3. Expérience sur la science du sol: (1 Expérience)

11. But de l'expérience :

Etudier les caractéristiques des différents types de sols.

Échantillons de différents types de sols (par exemple, sol argileux, sol sableux ou alluvial, humus, sol noir, sol jaune, sol rouge, sol latéritique ou sol latéritique).

Méthode et observations :

Différents échantillons de sol sont prélevés et étudiés individuellement.

Certaines de leurs principales caractéristiques sont sous-mentionnées :

je. C'est un sol compact et à texture lourde.

ii. La taille de ses particules est inférieure à 0,002 mm.

iii. Il a des espaces très infimes entre ses particules.

iv. Il est assez collant lorsqu'il est mouillé mais devient dur et développe des fissures en séchant.

v. Il a une capacité de rétention d'eau plus élevée et une mauvaise aération.

vi. Il s'engorge facilement.

vii. Ses particules sont chargées négativement et ont la capacité d'absorber les cations de Mg, Ca, K, P, Fe et Na.

viii. Ce sol est constitué de silicate d'alumine hydraté.

ix. Il est assez riche en carbonate de calcium et carbonate de magnésium.

X. L'espace interstitiel entre ses particules est plus grand que le sable.

xi. Ce sol a un haut degré de fertilité.

Sur la base des caractéristiques ci-dessus, l'échantillon donné appartient à un sol argileux.

II. Sable fin ou sol alluvial :

je. Ce sol est meuble, de texture légère et de couleur gris argenté.

ii. La taille de ses particules est comprise entre 0,02 mm et 0,2 mm.

iii. Il a une faible capacité de rétention d'eau.

iv. Ce sol présente un taux d'infiltration d'eau assez rapide.

vi. La teneur en carbonate de ce sol est très faible.

vii. Il ne s'engorge pas facilement.

viii. Il montre une bonne aération.

ix. Il est non collant et non plastique lorsqu'il est mouillé.

X. Il a de très faibles teneurs en phosphate, azote et matière organique.

xi. Il contient des particules brillantes de silicate d'aluminium ou de mica.

xii. Certaines quantités de fer, magnésium, sodium, aluminium, silicium et calcium sont présentes dans ce sol.

xiii. Ses particules se réchauffent lors d'une longue exposition au soleil.

Les caractéristiques ci-dessus montrent que l'échantillon de sol donné appartient à du sable fin ou à un sol alluvial.

je. C'est une matière décomposée de restes de plantes et d'animaux.

ii. Cette matière organique est amorphe et de couleur brun foncé à noire.

iii. Il est soluble dans une solution alcaline diluée comme KOH et NaOH mais insoluble dans l'eau.

iv. Il s'agit en fait d'une couche de matière organique au sommet d'un profil de sol. C'est l'habitat de la plupart des décomposeurs. Les principaux décomposeurs sont les bactéries et les champignons.

v. Il est composé de protéines riches en azote, de lignine et de polysaccharides.

vi. Une grande quantité de carbone et de petites quantités de soufre, de phosphore et d'autres éléments sont également présents.

vii. Il est de nature colloïdale.

Sur la base des caractéristiques ci-dessus, on peut conclure que le matériau donné est de l'humus.

je. C'est un sol de couleur noire. La couleur noire est due à la présence de fer dans ce sol.

ii. Un pourcentage élevé d'oxydes de fer, de carbonates de calcium, de carbonates de magnésium et d'alumine sont présents dans ce sol.

iii. Il contient également une grande quantité d'azote et de matière organique. Cependant, il contient très peu de phosphore.

iv. S'il est mouillé en ajoutant un peu d'eau, ce sol est collant. Au séchage, il se contracte et présente des fissures.

v. Il a une grande capacité de rétention d'eau.

vi. Il est très productif et convient le plus aux cultures comme le coton.

Sur la base des caractéristiques mentionnées ci-dessus, on peut conclure que l'échantillon donné appartient au sol noir.

je. La couleur jaune de ce sol est due à l'hydratation renforcée de l'oxyde ferrique.

ii. C'est un sol poreux avec un pH presque neutre.

iii. La taille des particules de ce sol est comprise entre 0,002 mm et 0,02 mm.

iv. C'est un sol d'origine granitique avec un humus moyennement riche.

v. Il contient une très faible quantité d'oxydes de phosphore, d'azote et de potassium.

vi. Il contient une grande quantité d'oxyde de silicium et d'alminosilicate.

Les caractéristiques ci-dessus montrent qu'il s'agit d'un échantillon de sol jaune.

je. C'est l'échantillon de sol de couleur rouge.

ii. La couleur rouge est due à la diffusion d'une grande quantité de composés du fer tels que l'oxyde ferreux et l'oxyde ferrique.

iii. C'est un type de sol légèrement acide. Son pH varie entre 5 et 8.

iv. Une certaine quantité d'oxyde de silicium et d'oxyde d'aluminium est également présente dans ce sol.

v. Ce sol n'est pas bon pour l'agriculture car il est pauvre en azote, phosphore et humus.

En raison des caractéristiques ci-dessus, l'échantillon donné est de terre rouge.

VII. Sol latéritique :

je. C'est un sol de couleur jaunâtre ou rouge. Lorsqu'il est exposé au soleil, il devient noir.

ii. Il est produit à partir de roches riches en aluminium.

iii. C'est un type de sol assez compact composé d'oxydes de fer et d'aluminium hydratés.

iv. Il contient également de petites quantités de composés comme l'oxyde de magnésium et l'oxyde de titane.

v. De petites quantités d'azote, de phosphore, de magnésium, de potasse et de chaux sont également présentes dans ce sol.

vi. Il est également assez riche en humus.

vii. En raison des caractéristiques ci-dessus, ce sol est bon pour l'agriculture.

Les caractéristiques mentionnées ci-dessus montrent que l'échantillon donné est de sol latéritique ou latéritique.

4. Expérience sur l'écosystème aquatique : (1 expérience)

Les organismes vivants sont structurellement et fonctionnellement interdépendants avec le monde extérieur ou l'environnement, et cette relation fonctionnelle et structurelle des communautés et de l'environnement est appelée système écologique ou écosystème.

L'écosystème contient normalement :

Compte tenu des organismes et de leurs conditions d'habitat, l'écosystème peut être classé comme suit :

L'écosystème de l'étang peut être étudié comme suit :

12. But de l'expérience:

Étudier les composants biotiques d'un étang. Faire un diagramme d'un écosystème d'étang.

Lentille à main, filet de collecte, mailles de différentes tailles, tubes de collecte, crochet en fer, ciseaux, forceps et centrifugeuse.

Les composants biotiques d'un étang peuvent être étudiés exactement selon la classification d'un écosystème d'étang donnée ci-dessus. Les hydrophytes peuvent être cueillis à la main et collectés dans des sacs en polyéthylène. D'autres plantes submergées peuvent également être retirées par des crochets en fer (Fig. 74).

Le phytoplancton et le zooplancton peuvent être collectés dans des bouteilles de plancton.

A l'aide de filets à plancton, les micro-organismes peuvent être collectés dans des tubes.

Les macro-producteurs et les macro-consommateurs peuvent être estimés en g/mètre cube par la méthode du quadrat utilisée dans l'exercice de la biomasse.

Les micro-producteurs et les micro-consommateurs peuvent être estimés en g/litre d'eau prélevée comme échantillon dans une partie non perturbée de l'étang.Ils peuvent être séparés par centrifugation d'une petite quantité d'eau de bassin (contenant des micro-producteurs et des micro-consommateurs) dans un tube à essai.

Sur la base de leur position trophique dans l'écosystème, différents organismes peuvent être regroupés comme suit :

Vallisneria, Ceratophyllum, Hydrilla, Potamogeton, Chara, etc.

(ii) Flottant :

Azolla, Eichhornia, Lemna, Pistia, Spirodella, Salvinia, etc.

(iii) Flottant enraciné :

Trapa, Jussiaea, Nymphaea, Potamogeton, Nelumbium, etc.

Marsilea, Typha, Ranunculus, Polygonum, Cyperus, etc.

Agal membres de Chlorophyceae, Xanthophyceae, Bacillariophyceae, Myxophyceae, etc.

(je) Consommateurs de 1er ordre (Principaux consommateurs) :

par exemple, le zooplancton, certains insectes.

(ii) Consommateurs de 2ème ordre (Consommateurs secondaires) :

par exemple, les poissons, les grenouilles et certains insectes.

(iii) Consommateurs du 3ème ordre (Consommateurs Tertiaires) :

5. Expérience sur l'analyse physico-chimique de l'eau: (7 expériences)

13. But de l'expérience :

Pour mesurer la température et le pH de différents plans d'eau.

Thermomètre ou thermomètre ou thermos à maximum-minimum.

La température de l'étang peut être déterminée par l'un des appareils suivants :

(a) Thermomètre à maximum-minimum :

Il contient deux indicateurs (Fig. 73). À l'aide d'un aimant, ces indicateurs sont réglés sur la température atmosphérique actuelle. Abaissez rapidement le thermomètre à la profondeur désirée dans l'étang. Gardez-le là pendant 10 minutes.

Sortez le thermomètre rapidement et notez les lectures des deux indicateurs. Sur les deux indicateurs, l'un reste au point et l'autre se déplace dans une certaine mesure donnant la lecture de la température à cette profondeur particulière de l'étang.

C'est un instrument qui donne une lecture correcte de la température en centigrades. Il contient un long câble. Au bout du câble est fixé un thermocouple (Fig. 75).

Un milliampèremètre est présent qui est calibré en C° et donne une lecture directe. Abaissez rapidement le thermocouple jusqu'à la profondeur désirée et notez la température.

C'est aussi l'un des bons appareils pour mesurer la température d'un étang. Après l'avoir descendu à la profondeur désirée, sortez-le lorsqu'il est complètement rempli d'eau. A l'aide d'un bon thermomètre sensible, notez la température de l'eau.

Le pH de l'eau du bassin peut être testé par pH-mètre, papier pH ou B.D.H. Indicateur universel.

14. But de l'expérience :

Pour déterminer la transparence ou la turbidité de différents plans d'eau.

Transparence (clarté du bassin) :

Elle est directement liée et dépend principalement de la présence de micro-organismes et de particules microscopiques du sol dans l'eau de l'étang. Si la quantité de particules de sol et d'organismes microscopiques est plus importante, l'eau du bassin sera moins transparente. Cela dépend aussi de la profondeur de l'eau du bassin. La valeur de turbidité sera très faible en eau profonde.

L'instrument pour connaître la valeur de la turbidité est appelé disque de Secchi (Fig. 76). C'est un disque circulaire avec du noir et blanc ou d'autres couleurs contrastées. Le disque est abaissé dans l'eau. Notez la profondeur de l'eau où il n'y a pas de contraste de couleur sur le disque.

15. But de l'expérience :

Pour connaître l'intensité lumineuse disponible pour l'étang.

L'intensité lumineuse disponible pour le bassin est mesurée à l'aide d'un ‘photomètre’ (Fig. 77).

Un ‘photomètre’ se compose d'une cellule photoélectrique et d'un micro-ampèremètre. Le photomètre pour bassin est spécialement scellé dans des récipients étanches munis d'une fenêtre en verre. La cellule photoélectrique est sensible à la lumière et génère du courant lorsque la lumière tombe dessus. L'intensité lumineuse est proportionnelle au courant généré dans la cellule photoélectrique par la lumière qui lui tombe dessus. Les lectures peuvent être notées en micro-ampèremètre.

Calculer l'intensité lumineuse par la formule suivante :

Intensité lumineuse = r × 100 / a

où r – Lecture du luxmètre ou du photomètre

a = Lumière réfléchie par le carton.

16. But de l'expérience :

Pour mesurer la quantité d'oxygène dissous dans les plans d'eau pollués et non pollués.

Pour mesurer la quantité d'oxygène dissous dans l'eau du bassin.

Échantillon d'eau, fiole conique bouchée en verre, sulfate manganeux, solution d'iodure de potassium (alcaline), pipettes, acide sulfurique (conc.), solution de thiosulfate de sodium, solution d'amidon, flacons de réactifs.

Préparation des réactifs :

(une) Solution d'amidon :

Ajouter 1 g. l'amidon dans 100 ml d'eau distillée, réchauffer et dissoudre.

(b) Solution d'iodure de potassium (alcaline) :

Chauffer 200 ml d'eau distillée et y dissoudre 100 g. KOH et 50 g. KI.

(c) Solution de sulfate manganeux :

Ajouter 200 gMnSO4 . 4H2O dans 200 ml d'eau distillée. Faites-le chauffer pour dissoudre un maximum de sel. Refroidissez-le puis filtrez-le.

(ré) Solution de shiosulfate de sodium :

Dissoudre 24,82 gmNa2DONC4 . 5H2O dans une certaine quantité d'eau distillée et compléter le volume à 1 litre en ajoutant plus d'eau distillée. Pour stabiliser la solution, ajoutez une petite pastille d'hydroxyde de sodium. La solution ainsi préparée est une solution mère 0,1N. Dans 250 ml de cette solution mère, ajoutez 750 ml d'eau distillée pour diluer la solution de thiosulfate de sodium.

je. Prélever 100 ml d'échantillon d'eau dans une fiole conique à bouchon de verre de 250 ml et ajouter 1 ml de solution de sulfate manganeux et 1 ml de solution alcaline d'iodure de potassium par des pipettes séparées. L'apparition d'un précipité brun indique la présence d'oxygène dans l'échantillon d'eau.

ii. Bien agiter puis laisser le précipité se déposer.

iii. Ajouter 2 ml d'acide sulfurique (conc.) et bien agiter à nouveau. Le précipité sera dissous.

iv. Décanter le liquide et le titrer avec une solution de thiosulfate de sodium. La solution d'amidon est utilisée comme indicateur. La couleur bleu noir disparaît lorsque le point final est atteint.

Calculs et résultats :

L'oxygène dissous en mg/litre est calculé par la formule suivante :

= (ml × N de thiosulfate de sodium) × 8 × 1000/V1 – V2

où V1 = Volume d'échantillon d'eau titré,

V2 = Volume de MnSO4 et solution KI ajoutée.

17. But de l'expérience:

Pour déterminer le total des solides dissous (TDS) dans l'eau.

Eau, échantillon, coupelle d'évaporation, papier filtre Whatman, four, dessiccateur, balance, béchers.

je. Peser une capsule d'évaporation sèche et propre d'une capacité de 200 ml.

ii. Bien agiter l'échantillon d'eau et le filtrer à travers du papier filtre Whatman.

iii. Prélever 100 ml de filtrat dans une coupelle d'évaporation pré-pesée et le maintenir au four à 180°C pendant un certain temps. L'eau sera évaporée et l'échantillon deviendra sec.

iv. Refroidir dans un dessiccateur et peser. Calculez le total des solides dissous à l'aide de la formule suivante :

Solides dissous totaux (mg/1) = (a-b) × 10/V

a = Poids de la boîte et de l'échantillon filtré séché (en g.)

b = Poids de la coupelle d'évaporation vide (en g).

V= Volume d'échantillon évaporé (en ml).

18. But de l'expérience:

Pour compter le phytoplancton par la méthode de l'hémocytomètre.

Hémocytomètre, échantillon d'eau, lamelle, microscope, compte-gouttes.

L'hémocytomètre est un type spécial de lame de verre comportant plus de 500 petites chambres rainurées ou chambres de comptage (1 × 1 × 0,5 mm) dans la partie médiane. Cette lame spécialement conçue est utilisée pour compter les micro-organismes ou le plancton présents dans une goutte d'eau.

je. Prenez un hémocytomètre et déposez une goutte d'échantillon d'eau concentrée sur ses chambres de comptage.

ii. Mettez une lamelle, attendez environ 2 à 5 minutes et examinez sous le microscope à haute puissance. Comptez le plancton présent dans chaque chambre.

19. But de l'expérience :

Déterminer la biomasse planctonique d'un étang.

Eau de bassin, bouteille d'eau peu profonde, balance chimique, four, bécher, entonnoir, papier filtre Whatman.

je. Recueillez 1000 ml d'eau de surface de l'étang à l'aide d'une bouteille d'eau peu profonde. Cette eau contient du phytoplancton et du zooplancton.

ii. Peser un papier filtre sec. Supposons que ce soit A1 gm.

iii. Prenez un autre papier filtre. Faites-le mouiller et pesez-le. Supposons que ce soit A2 gm.

iv. Filtrez l'échantillon d'eau à travers un papier filtre Whatman et pesez ce papier filtre contenant du plancton. Supposons que ce soit A3 gm.

v. Mettez maintenant ce papier filtre contenant du plancton au four pendant 24 heures à 85°C. Pesez ce papier filtre sec avec du plancton. Supposons que ce soit A4 gm.

Calculs et résultat :

Calculer la biomasse (poids frais ou poids sec des organismes) en mg/litre comme suit :

(i) Poids frais de plancton/1000 ml = A3– Un2gm.

(ii) Poids frais de plancton/ml = A3 – Un2g/1000


6 RAPPORTS

6.1 La rubrique « méthodes »

La justification de l'ordre des éléments dans ADEMP est qu'il s'agit généralement de l'ordre approprié pour les rapporter dans une section méthodes. Si l'étude de simulation a été planifiée et écrite avant son exécution, la partie méthodes est en grande partie écrite. Il s'agit d'une commande particulièrement utile pour d'autres chercheurs qui pourraient souhaiter reproduire l'étude. Des détails devraient être inclus pour permettre la reproduction dans la mesure du possible, comme la valeur de msim et comment cela a été décidé, la dépendance entre les ensembles de données simulés. Un autre élément important à signaler est une justification des cibles choisies pour des contextes appliqués particuliers.

6.2 Présentation des résultats

Certaines études de simulation peuvent être très petites, par exemple, explorer une ou deux mesures de performance sous un seul mécanisme de génération de données. Ceux-ci peuvent être rapportés dans le texte (comme dans He et al 60 ). Dans d'autres cas, il y a suffisamment de résultats pour qu'il soit nécessaire de les rapporter sous forme de tableau ou de graphique. Pour toute tabulation ou graphique de résultats, il existe quatre dimensions potentielles : les mécanismes de génération de données, les méthodes, les estimations et les mesures de performance. Cette section fournit quelques considérations pour la présentation de ces résultats.

Dans les affichages tabulaires, il est courant de diviser les lignes selon les mécanismes et les méthodes de génération de données en colonnes (comme dans Chen et al 61 ), bien que s'il y a plus de méthodes que de mécanismes de génération de données, il est préférable de les échanger (comme dans Hsu et al 62). Les mesures de performance et les estimations peuvent varier d'une colonne ou d'une ligne à l'autre en fonction de ce qui rend le tableau plus facile à assimiler (voir, par exemple, Alonso et al 63 ).

Il y a deux considérations clés dans la conception des tables. Le premier est de savoir comment placer les comparaisons importantes côte à côte. Les comparaisons les plus importantes seront généralement des méthodes, donc les biais (par exemple) pour différentes méthodes doivent être organisés dans des lignes ou des colonnes adjacentes.

La seconde considération concerne la présentation des SE Monte Carlo, et cela tend à confondre la première. En les présentant à côté des résultats de performance, par exemple entre parenthèses, le tableau devient encombré et difficile à digérer, obscurcissant les comparaisons intéressantes. Pour cette raison, certains auteurs rapporteront le maximum de Monte Carle SE en légende des tableaux. 43, 64 Les résultats ne doivent pas être présentés avec une précision supérieure à celle justifiée par l'ES de Monte Carlo (par exemple, 3dp pour la couverture). Dans notre revue du volume 34, sept articles présentaient des SE Monte Carlo pour les performances estimées : trois dans le texte, deux dans un tableau, un dans un graphique et un dans une légende flottante.

Le principal avantage des affichages graphiques des performances est qu'il est plus facile de repérer rapidement des motifs, en particulier sur des dimensions qui ne sont pas comparées côte à côte. Un deuxième avantage est qu'il devient possible de présenter des estimations de données brutes (par exemple le ) ainsi que des résultats de performance les résumant (voir, par exemple, la figure 3 de Lambert et al 65 ). D'après notre expérience, ces graphiques sont des moyens populaires et intuitifs de résumer les et les SE modèles. Un autre exemple d'un graphique de données d'estimation est un histogramme donné dans Kahan 31 (ceci était particulièrement important car Bias≃0, mais presque aucun était proche de ??). Même s'il n'est pas prévu d'inclure des graphiques d'estimations dans les publications, nous recommandons vivement leur utilisation dans l'exploration des résultats de simulation.

Le principal inconvénient des affichages graphiques des résultats est que les graphiques peuvent être moins économes en espace que les tableaux, qu'il n'est pas possible de lire les nombres exacts et que des graphiques séparés seront fréquemment nécessaires pour différentes mesures de performance.

Par rapport aux tableaux, il est plus facile pour les graphiques des résultats de performance d'intégrer directement l'affichage des ES de Monte Carlo, et cela devrait être fait, par exemple sous forme d'intervalles de confiance à 95 %. Les considérations sur la conception des parcelles pour faciliter les comparaisons les plus pertinentes s'appliquent comme pour les tableaux. Les méthodes ont souvent des noms difficiles à organiser côte à côte de manière lisible, il est généralement préférable d'organiser les méthodes en lignes horizontales et les mesures de performances sur plusieurs colonnes.

Comme indiqué précédemment, les plans factoriels complets peuvent poser des problèmes pour la présentation des résultats. Une option de présentation consiste à présenter des données en supposant qu'il n'y a aucune interaction à moins qu'il n'y en ait de toute évidence. Une approche alternative adoptée par Rücker et Schwarzer est de présenter tous les résultats d'une étude de simulation factorielle complète avec 4 × 4 × 4 × 4 × 3 = 768 mécanismes de génération de données, et la comparaison de six méthodes. 66 Leur proposition est un « graphique en boucle imbriquée », qui parcourt des facteurs imbriqués – généralement des mécanismes de génération de données – pour une estimation, et trace les résultats de différentes méthodes les uns sur les autres. 66 Ceci est un graphique utile mais ne conviendra pas à toutes les conceptions (et rend difficile la représentation de Monte Carlo SE).

Il n'y a pas une seule façon correcte de présenter les résultats, mais nous encourageons une réflexion approfondie pour faciliter la lisibilité et la clarté, compte tenu des comparaisons qui doivent être faites par les lecteurs.


Quel test statistique recommanderiez-vous pour comparer deux méthodes d'échantillonnage du comportement animal ? - La biologie

Module 2 : Méthodes de collecte de données - Chapitres 2

Leçon en ligne

Méthodes de recherche sur les loisirs

Une fois qu'une question de recherche a été déterminée, l'étape suivante consiste à déterminer quelle méthode sera appropriée et efficace.

Le tableau ci-dessous décrit les caractéristiques de base des différentes méthodologies.

Méthodologies de recherche qualitative et quantitative

Quantitatif les méthodes de recherche comprennent :

Qualitatif les méthodes de recherche comprennent :

Chaque méthode de recherche a ses forces et ses faiblesses. Lors de la conception d'une étude de recherche, il est important de décider quels résultats (données) l'étude produira, puis de sélectionner la meilleure méthodologie pour produire les informations souhaitées.

Techniques de collecte de données

Il existe deux sources de données. La collecte de données primaires utilise des enquêtes, des expériences ou des observations directes. La collecte de données secondaires peut être effectuée en collectant des informations à partir d'une source diverse de documents ou d'informations stockées électroniquement. Les recensements américains et les études de marché sont des exemples de sources communes de données secondaires. Ceci est également appelé "data mining."

Techniques de collecte de données clés

Rédaction d'une introduction

Dans toute proposition de recherche, le chercheur doit éviter le mot « enquête ». Ce mot est perçu dans un sens négatif.

Les éléments clés d'une bonne introduction comprennent

Traitements expérimentaux

Les plans expérimentaux sont à la base de la signification statistique. Un exemple des principes fondamentaux d'une conception expérimentale est présenté ci-dessous.

Un chercheur s'intéresse à l'effet d'un programme de loisirs de plein air (la variable indépendante, le traitement expérimental ou la variable d'intervention) sur les comportements (variables dépendantes ou de résultat) des jeunes à risque.

Dans cet exemple, la variable indépendante (programme de loisirs de plein air) devrait effectuer un changement dans la variable dépendante. Même avec une étude bien conçue, une question demeure : comment le chercheur peut-il être sûr que les changements de comportement, le cas échéant, ont été causés par le programme de loisirs de plein air, et non par une autre variable intermédiaire ou étrangère ? Une conception expérimentale n'élimine pas les variables intervenantes ou étrangères, mais tente de rendre compte de leurs effets.

Le contrôle expérimental est associé à quatre facteurs principaux (Huck, Cormier, & Bounds, 1974).

Groupe de traitement: La partie d'un échantillon ou d'une population qui est exposée à une manipulation de la variable indépendante est connue sous le nom de groupe de traitement. Par exemple, les jeunes qui s'inscrivent et participent à des programmes de loisirs constituent le groupe de traitement, et le groupe auquel aucun service de loisirs n'est fourni constitue le groupe témoin.

Il existe deux critères principaux pour évaluer la validité d'un plan expérimental.

Erreurs : sont des conditions qui peuvent confondre l'effet de la variable indépendante avec celui de certaines autres variables.

True Designs - Cinq étapes de base pour la conception de la recherche expérimentale

1. Examinez la littérature pour les recherches actuelles liées à votre étude.
2. Définir le problème, formuler une hypothèse, définir les termes et variables de base et opérationnaliser les variables.
3. Élaborer un plan de recherche :
une. Identifiez les variables confusionnelles/médiatrices qui peuvent contaminer l'expérience et développez des méthodes pour les contrôler ou les minimiser.
b. Sélectionnez un plan de recherche (voir chapitre 3).
c. Sélectionnez au hasard des sujets et attribuez-les au hasard à des groupes.
ré. Valider tous les instruments utilisés.
e. Élaborer des procédures de collecte de données, mener une étude pilote et affiner l'instrument.
F. Énoncez les hypothèses nulle et alternative et définissez le niveau de signification statistique de l'étude.
4. Mener les expériences de recherche.
5. Analysez toutes les données, effectuez des tests statistiques appropriés et communiquez les résultats.

La principale différence entre les vrais plans et les quasi plans est que les quasi plans n'utilisent pas d'assignation aléatoire dans les groupes de traitement ou de contrôle puisque ce plan est utilisé dans des environnements naturels existants.

Les groupes reçoivent des prétests, puis un groupe reçoit un traitement, puis les deux groupes reçoivent un post-test. Cela crée une question continue de validité interne et externe, puisque les sujets sont auto-sélectionnés. Les étapes utilisées dans un quasi-design sont les mêmes que les vrais designs.

Conceptions ex post facto

Une conception ex post facto déterminera quelles variables font la distinction entre les groupes de sujets.

Étapes d'une conception ex post facto

Les études ex post facto ne peuvent pas prouver la causalité, mais peuvent donner un aperçu de la compréhension du phénomène.

AUTRES MÉTHODES DE TERRAIN/TECHNIQUES DE GROUPE

Technique du groupe nominal (NGT)

La NGT est une technique de structuration de discussion de groupe. Il est utile pour fournir un effort ciblé sur des sujets. Le NGT fournit une méthode pour identifier les problèmes qui préoccupent les groupes d'intérêts spéciaux ou le grand public. Ewert (1990) a noté que la NGT est une technique de prise de décision collective à utiliser dans la planification et la gestion des parcs et des loisirs. Le NGT est utilisé pour obtenir un aperçu des problèmes du groupe, des comportements et des besoins de recherche futurs.

Source : (Mitra et Lankford, 1999)

La méthode delphi a été développée pour structurer les discussions et résumer les options d'un groupe sélectionné pour :

Bien que les données puissent s'avérer précieuses, le processus de collecte prend beaucoup de temps. Lorsque le temps est disponible et que les répondants sont prêts à être interrogés sur une période de temps, la technique peut être très puissante pour identifier les tendances et prédire les événements futurs.

La technique nécessite une série de questionnaires et de rapports de rétroaction à un groupe d'individus. Chaque série est analysée et l'instrument/les déclarations sont révisés pour refléter les réponses du groupe.Un nouveau questionnaire est préparé qui inclut le nouveau matériel, et le processus est répété jusqu'à ce qu'un consensus soit atteint.

La lecture ci-dessous est une étude de recherche qui a utilisé la technique Delphi et l'analyse de contenu pour développer un programme national de certification professionnelle.

Richard Krueger (1988) décrit le groupe de discussion comme un type particulier de groupe en termes d'objectif, de taille, de composition et de procédures. Un groupe de discussion est généralement composé de sept à douze participants qui ne se connaissent pas et dirigé par un intervieweur qualifié. Ces participants sont sélectionnés parce qu'ils ont certaines caractéristiques en commun qui se rapportent au sujet du groupe de discussion.

Le chercheur crée un environnement permissif dans le groupe de discussion qui nourrit différentes perceptions et points de vue, sans faire pression sur les participants pour qu'ils votent, planifient ou parviennent à un consensus. La discussion de groupe est menée plusieurs fois avec des types de participants similaires pour identifier les tendances et les modèles de perception. Une analyse minutieuse et systématique des discussions fournit des indices et des idées sur la façon dont un produit, un service ou une opportunité est perçu.

Un groupe de discussion peut être défini comme une discussion soigneusement planifiée conçue pour obtenir des perceptions sur un domaine d'intérêt défini dans un environnement permissif et non menaçant. Elle est menée auprès d'environ sept à douze personnes par un enquêteur qualifié. La discussion est détendue, confortable et souvent agréable pour les participants qui partagent leurs idées et leurs perceptions. Les membres du groupe s'influencent mutuellement en répondant aux idées et aux commentaires de la discussion.

CARACTÉRISTIQUES DES GROUPES DE DISCUSSION

Les entretiens de groupe de discussion ont généralement quatre caractéristiques :

D'autres types de processus de groupe utilisés dans les services sociaux (delphiques, nominaux, de planification, thérapeutiques, de sensibilité ou consultatifs) peuvent avoir une ou plusieurs de ces caractéristiques, mais pas dans la même combinaison que celles des entretiens de groupe de discussion.

Cartographie comportementale/cognitive

Les informations de cartographie cognitive et spatiale fournissent une carte spatiale de :

Tous les types d'activités récréatives et de voyages impliquent un certain niveau de cognition environnementale, car les gens doivent identifier et localiser les destinations et les attractions récréatives.

La cartographie cognitive permet aux gestionnaires de ressources récréatives d'identifier où les utilisateurs et les visiteurs perçoivent les meilleures aires de loisirs. Il est important de comprendre les perceptions des utilisateurs afin de gérer les zones d'utilisation intensive en termes de maintenance, de supervision, de budgétisation, d'élaboration de politiques et de planification.

Des cartes cognitives quadrillent le site de recherche en zones. Les zones identifient les sites géographiques, climatiques, paysagers, marins et récréatifs existants. Les grilles permettent aux répondants d'indiquer les principaux sites de loisirs, puis un composite est développé pour identifier les zones à fort impact. Les chercheurs recueillent des données dans les aires de loisirs (plage, terrain de camping, marina, début de sentier, etc.) en interrogeant les visiteurs et les récréateurs. Au cours du processus de collecte de données, des sites, des jours, des heures et des répondants aléatoires (tous les énièmes) doivent être choisis pour augmenter la fiabilité et la généralisabilité des données.

La recherche observationnelle est utilisée pour étudier les comportements non verbaux (gestes, activités, regroupements sociaux, etc.).

Sommer & Sommer (1986) a développé la liste ci-dessous pour aider à la recherche d'observation.

L'observation fortuite se fait normalement comme des entretiens non structurés. Au cours des premières étapes d'un projet de recherche, l'observation informelle permet au(x) chercheur(s) d'observer les sujets avant de concevoir des questionnaires et/ou des formats d'entretien.

Types d'études d'observation

Documents (également appelés Données Secondaires ou Data Mining)

L'exploration de données est couramment utilisée dans la recherche qualitative et quantitative. Les données secondaires fournissent des données qui fournissent un cadre pour le projet de recherche, l'élaboration de questions de recherche et la validation des résultats de l'étude.

Les sources de données secondaires fréquemment utilisées sont :

L'analyse de contenu décrit systématiquement la forme ou le contenu du matériel écrit et/ou parlé. Il est utilisé pour étudier quantitativement les médias de masse. La technique utilise des données secondaires et est considérée comme une recherche discrète.

La première étape consiste à sélectionner les médias à étudier et le sujet de recherche. Ensuite, développez un système de classification pour enregistrer les informations. Les techniques peuvent utiliser des juges formés ou un programme informatique peut être utilisé pour trier les données afin d'augmenter la fiabilité du processus.

L'analyse de contenu est un processus fastidieux en raison de l'exigence que chaque source de données soit analysée selon un certain nombre de dimensions. Il peut également être inductif (identifie les thèmes et les modèles) ou déductif (quantifie les fréquences des données). Les résultats sont descriptifs, mais indiqueront également des tendances ou des questions d'intérêt.

La lecture ci-dessous est une étude de recherche qui a utilisé la technique delphi et l'analyse de contenu pour développer un programme national de certification professionnelle.

La méta-analyse combine les résultats des études examinées. Il utilise des techniques statistiques pour estimer la force d'un ensemble donné de résultats dans de nombreuses études différentes. Cela permet de créer un contexte à partir duquel des recherches futures peuvent émerger et de déterminer la fiabilité d'un résultat en examinant les résultats de nombreuses études différentes. Les chercheurs analysent les méthodes utilisées dans les études précédentes et quantifient collectivement les résultats des études. Les résultats de la méta-analyse constituent une base pour l'établissement de nouvelles théories, modèles et concepts.

Thomas et Nelson (1990) détaillent les étapes de la méta-analyse :

La recherche historique est également appelée recherche analytique. Les caractéristiques méthodologiques communes incluent un sujet de recherche qui aborde les événements passés, l'examen des données primaires et secondaires, les techniques de critique pour les recherches historiques et l'évaluation de l'information, ainsi que la synthèse et l'explication des résultats. Les études historiques tentent de fournir des informations et une compréhension des événements historiques, juridiques et politiques passés.

Cinq procédures de base communes à la conduite de la recherche historique ont été identifiées par McMillan & Schumacher (1984). Ils fournissent une approche systématique du processus de recherche historique.

Étape 1 : Définir le problème en posant des questions pertinentes telles que : La méthode historique est-elle appropriée ? Des données pertinentes sont-elles disponibles ? Les résultats seront-ils significatifs dans le domaine des services de loisirs ?

Étape 2 : Développer l'hypothèse de recherche (si nécessaire) et les objectifs de recherche pour fournir un cadre pour la conduite de la recherche. Les questions de recherche se concentrent sur les événements (qui, quoi, quand, où), comment un événement s'est produit (descriptif) et pourquoi l'événement s'est produit (interprétation). Cela contraste avec les études quantitatives, dans lesquelles le chercheur teste des hypothèses et essaie de déterminer la signification entre les scores des groupes expérimentaux et témoins ou les relations entre la variable x et la variable y.

Étape 3 : Collecter les données, qui consiste à prendre de nombreuses notes et à organiser les données. Le chercheur doit coder les sujets et les sous-sujets afin d'organiser et de classer les données. Les types d'analyse de données utilisés dans la recherche historique incluent (basé sur McMillan & Schumacher, 1984):

Étape 4 : À l'aide de critiques externes et internes, la recherche doit évaluer les données. Les sources de données comprennent des documents (lettres, agendas, factures, reçus, journaux, revues/magazines, films, images, enregistrements, dossiers personnels et institutionnels et budgets), des témoignages oraux des participants aux événements et des reliques (manuels, bâtiments, cartes, équipement, mobilier et autres objets).

Étape 5 : Rapport des résultats, qui comprend un énoncé du problème, un examen du matériel source, des hypothèses, des questions de recherche et des méthodes utilisées pour obtenir les résultats, les interprétations et les conclusions, et un système de référencement bibliographique complet.

L'approche multiméthode encourage la collecte, l'analyse et l'intégration de données provenant de plusieurs sources et l'utilisation de divers types de méthodes de recherche.

Copyright 2001. Université du Nord de l'Arizona, TOUS DROITS RÉSERVÉS


Conclusion

Nous avons développé un logiciel pour créer des simulations semi-synthétiques basées sur des données réelles afin de comparer les performances de certaines des méthodes d'analyse de trajectoire les plus populaires. Les méthodes les plus puissantes sont sigPathway et GSEA, qui ont des performances similaires et détectent les signaux secondaires en fonction du chevauchement des voies. En adoptant une approche appliquée à la comparaison des méthodes, des informations précieuses sont obtenues sur la puissance de chaque méthode GSA. Avec de telles informations, une plus grande confiance est apportée à toutes les études de suivi fonctionnel.


Voir la vidéo: Tests statistiques: Choisir la statistique de test adaptée et donner sa loi: rappels de cours (Août 2022).