Premium
REGULAR ARTICLES
Publication year - 2006
Publication title -
biometrics
Language(s) - French
Resource type - Journals
SCImago Journal Rank - 2.298
H-Index - 130
eISSN - 1541-0420
pISSN - 0006-341X
DOI - 10.1111/j.1541-0420.2006.00669_3.x
Subject(s) - mathematics , humanities , art
R. Huggins 684 Nous proposons un modèle semi‐paramétrique partiellement linéaire pour estimer l'effectif d'une population ouverte, dans lequel l'estimation se fait par une martingale pondérée d'équations d'estimation. Ceci généralise une précédente méthode non paramétrique de modélisation des données de capture‐recapture en population ouverte, avec occasions de capture fréquentes. Nous donnons des expressions analytiques des variances d'échantillonnage, et les validons par une étude par simulations. La méthode est illustrée sur des données de baguage de manchots récoltées mensuellement pendant 6 ans. L. Cowen andC. J.Schwarz 699 La perte de marque dans les expériences de capture‐recapture est une violation des conditions de validité du modèle de Jolly‐Seber. Cette perte est source de biais dans l'estimation des paramètres et n'a reçu que des traitements ad hoc. Nous développons une méthodologie pour estimer la rétention de marques et l'abondance avec un double marquage dans une expérience de capture‐recapture. La méthodologie est appliquée à une population de Dorés Jaunes (Stizostedion vitreum) à Mille Lacs, Minnesota. J. A. Dupuis andJ.Joachim 706 Nous abordons dans cet article le problème de l'estimation bayésienne du nombre d'espèces présentes au sein d'une communauté animale. Nous supposons qu'il est possible de dresser une liste d'espèces susceptibles d'appartenir à cette communauté. L'estimation repose sur des observations provenant d'un échantillonnage par quadrats. Nous considérons des modèles qui nous permettent de séparer les hypothèses relatives au protocole expérimental de celles relatives à la distribution spatiale des espèces dans les quadrats. Notre paramétrisation nous permet d'incorporer toute information a priori disponible sur la présence, la détectabilité ou la densité spatiale des espèces. Nous élaborons des procédures pour construire l'a priori sur ces paramètres à partir d'information fournie par des données externes. Une étude par simulation est réalisée pour examiner l'influence de l' a priori sur les performances de notre estimateur. Nous mettons en oeuvre notre approche pour estimer le nombre d'espèces d'oiseaux nicheurs présentes dans une forêt. N. G. Cadigan 713 Nous utilisons des diagnostics d'influence locale pour mesurer la sensibilité d'un point de référence limite (LRP) estimé par l'ajustement d'un modèle à des données de stock et recrutement. Les LRP sont de bas niveaux des stocks que les gestionnaires des pêcheries devraient éviter d'atteindre avec une forte probabilité. Le LRP que nous avons examiné est le stock auquel le recrutement est égal à la moitié du recrutement maximal ( S 50% ). Nous dérivons des équations analytiques décrivant les effets sur S 50% d'un changement du poids affecté aux observations pendant la procédure d'estimation. Nous dérivons des équations pour les modèles stock‐recrutement de Ricker, Beverton‐Holt, et de la canne de hockey, et quatre méthodes d'estimation, les moindres carrés appliqués aux logs des réponses et trois méthodes de quasi‐vraisemblance. Nous concluons de plusieurs études de cas que le modèle de la canne de hockey produit les estimations les plus robustes. M. A. Newton , L. Clipson , A. T. Thliveris , andR. B.Halberg 721 L'hypothèse de collision aléatoire est une idéalisation mathématique de la formation d'une tumeur intestinale qui peut prendre en compte l'origine polyclonale des tumeurs sans requérir une description mécanistique de l'interaction clonale. En utilisant des données d'étude chez la souris, nous développons une procédure statistique pour tester l'hypothèse de collision aléatoire. Des éléments de géométrie stochastique et des approximations d'Armitage (1999) supportent un modèle statistique sur des données du nombre de tumeurs. Une analyse bayésienne donne une distribution a posteriori du nombre de tumeurs hétérotypiques, à partir desquelles des valeurs de p sont calculées pour tester la collision aléatoire. W. C. L. Stewart andE. A.Thompson 728 Les précédentes grandes études de liaison génétique multi‐point ont généré une masse importante de données sur des marqueurs génétiques. En raison de ces grandes tailles d'échantillon, les cartographies génétiques obtenues à partir de ces données peuvent être plus précises que celles disponibles dans les bases de données publiques. Cependant, les méthodes actuelles pour estimer de telles cartographies sont limitées à l'analyse de pedigrees contenant un petit nombre d'individus ou ne peuvent utiliser l'information sur l'ensemble des marqueurs observés à plusieurs loci en présence de grands pedigrees. Dans ce papier, une méthode de maximum de vraisemblance (MV) est décrite pour estimer des cartographies en utilisant l'ensemble des marqueurs disponibles au sein de grandes études de liaison génétique multi‐point. Cette méthode est appliquée à des données simulées impliquant sept loci de susceptibilité et basées sur la structure des pedigrees observée dans l'analyse de liaison génétique multi‐point rapportée par Abkevich et al. (2003). La variance de l'estimateur de MV est correctement estimée et des tests d'hypothèses simples et composites sont réalisés. Une procédure efficace permettant de combiner des estimateurs de cartographies obtenus à partir de différents ensemble de données est également proposée. B. Wu , Z. Guan , andH.Zhao 735 Dans le cas de tests indépendants, plusieurs approches paramétriques et non paramétriques ont été proposées pour estimer le taux de faux positifs. Les approches paramétriques ont montré de meilleures performances que les non paramétriques. Dans cet article nous étudions les approches paramétriques et nous quantifions les relations sous tendant les liens entre méthodes paramétriques et non paramétriques. Notre étude révèle la nature conservative de l'approche non paramétrique et elle établit les connexions entre la méthode bayésienne empirique et les méthodes non paramétriques basées sur les significativités. En nous appuyant sur nos résultats nous soutenons qu'il vaut mieux utiliser une approche paramétrique ou modéliser directement la statistique de test en utilisant une méthode bayésienne empirique. L. C. Gurrin , J. B. Carlin , J. A. C. Sterne , G. S. Dite , andJ. L.Hopper 745 Lors de l'analyse régressive de données en grappes, il est important d'avoir la possibilité de distinguer les effets d'exposition entre les grappes et au sein des grappes sur la mesure d'intérêt, représentés respectivement par les coefficients de régression pour la moyenne de la grappe et l'écart à cette moyenne de la valeur d'exposition propre à l'individu. Dans le cadre des études de jumeaux, l'effet régressif au sein des paires représente l'association conditionnelle aux expositions partagées au sein des paires, incluant les effets génétiques ou environnementaux communs qui influencent la mesure d'intérêt. Il a donc été proposé de comparer les coefficients de régression entre des jumeaux monozygotes (MZ) et dizygotes (DZ) pour évaluer si une association entre un facteur d'exposition et la mesure d'intérêt avait une origine génétique. Nous proposons un modèle bivarié pour les mesures d'exposition et de la variable d'intérêt dans les études de jumeaux. Nous montrons que les coefficients de régression sont des moyennes pondérées des rapports des variances et des covariances de l'exposition et de la variable d'intérêt. A partir de cette observation, il est immédiat de déterminer les conditions sous lesquelles l'effet régressif au sein de paires MZ sera différent de celui au sein de paires DZ. En particulier, nous montrons qu'une structure de corrélation dans les paires de jumeaux pour les facteurs d'exposition et la variable d'intérêt qui semble être due à des facteurs génétiques ne sera pas nécessairement reflétée par des valeurs différentes des coefficients de régression au sein des paires de jumeaux MZ et DZ. Nous illustrons ces résultats à l'aide d'une étude de jumelles originaires d'Australie et d'Amérique du Nord sur la densité du sein à la mammographie et son rapport avec le poids et l'indice de masse corporelle. I. Chervoneva , B. Iglewicz , andT.Hyslop 752 Dans cet article, nous proposons une approche en deux phases de la modélisation de données non gaussiennes en classes à plusieurs niveaux avec un assez grand nombre de mesures continues par classe. De telles données sont courantes dans les études biologiques ou médicales qui utilisent un équipement de surveillance ou de traitement d'image. Nous considérons une classe générale de modèles hiérarchiques qui généralise le modèle dans la méthode globale à deux phases (GTS) pour des modèles non linéaires à effets mixtes en utilisant n'importe quels estimateurs n‐convergents en racine carrée et asymptotiquement normaux à partir de la phase 1 comme pseudo‐donnée dans la phase 2 du modèle, et en étendant la phase 2 du modèle pour prendre en compte des effets aléatoires provenant des multiples niveaux de la classification. La phase 2 du modèle est un modèle linéaire à effets mixtes standard avec des effets aléatoires normaux, mais les distributions spécifiques aux classes, conditionnellement aux effets aléatoires, peuvent ne pas être gaussiennes. Cette approche fournit un cadre souple pour modéliser non seulement un paramètre de position mais aussi d'autres caractéristiques des distributions conditionnelles qui peuvent présenter un intérêt particulier. Pour l'estimation des paramètres de population, nous proposons une approche par maximum de vraisemblance conditionnel restreint (CREML) dont nous établissons les propriétés asymptotiques des estimateurs. L'approche générale proposée est illustrée en prenant comme paramètres spécifiques des classes les quartiles estimés dans la première phase, et appliqués à des données d'une étude de développement de fibrille de collagène. Nous démontrons en utilisant des simulations que dans des échantillons avec un petit nombre de classes indépendantes, les estimateurs CREML se comportent mieux que ceux du maximum de vraisemblance conditionnel (CML), qui sont une extension directe des estimations à partir de la méthode GTS. P. Gustafson andS.Greenland 760 Greenland (2000, Biometrics 56, 915–921) a décrit l'usage de coefficients de régression aléatoires pour ajuster une confusion résiduelle d'une façon particulière. Nous examinons plus avant cette méthode en donnant des résultats théoriques et empiriques concernant les performances fréquentistes et bayésiennes des coefficients de régression aléatoires. En particulier nous comparons les estimateurs basés sur l'ajustement d'une confusion résiduelle aux estimateurs basés sur une hypothèse de non confusion résiduelle. Ceci revient à comparer un estimateur d'un modèle non identifié mais plus réaliste à un estimateur d'un modèle moins réaliste mais identifié. L'approche décrite par Gustafson (2005, Statistical Science 20, 111–140) est utilisée pour quantifier la performance d'un estimateur bayésien provenant d'un modèle non identifié. Des calculs théoriques et des simulations soutiennent l'idée qu'une performance supérieure peut être obtenue en remplaçant des contraintes identifiantes mais non réalistes par des a priori permettant un écart modeste à ces contraintes. En terme de biais de l'estimateur ponctuel, cette supériorité se révèle quand la confusion résiduelle est substantielle, mais l'avantage est plus grand en termes d'intervalle d'estimation. Le bénéfice d'une modélisation avec confusion résiduelle est maintenu quand les distributions a priori employées ne correspondent que grossièrement à la réalité, car les contraintes standards identifiantes sont équivalentes à des a priori, qui peuvent ne pas bien correspondre ou être bien pires. E. Vittinghoff andD. C.Bauer 769 La différenciation de traitements, en termes d'efficacité, entre des sous‐groupes définis par des variables décrivant des caractéristiques antérieures à l'initiation du traitement est l'objet d'un intérêt croissant, en particulier en pharmacogénomique, domaine de recherche lui‐même en plein essor. Quand la variable « pré‐traitement » est difficile à obtenir ou onéreuse à mesurer, mais peut être évaluée à la fin de l'étude à partir d'échantillons mis de côté, les méthodes emboîtées de cas‐contrôle ou de cas‐cohorte peuvent être utilisées pour réduire les coûts dans les essais d'efficacitéà grande échelle où l'incidence de l'événement attendu est très faible. Dans certaines circonstances, les méthodes « cas versus cas » ( case‐only ) sont encore plus efficaces et plus fiables. G. Yin , Y. Li , andY.Ji 777 Dans le contexte des essais cliniques de phase I//II, nous proposons un plan adaptatif bayésien dont la procédure de recherche de dose se base sur les réponses bivariées à un nouveau traitement, à savoir le couple toxicité‐efficacité. Sans imposer à la courbe dose‐réponse la forme d'une fonction paramétrique pré‐spécifiée, nous modélisons conjointement les données binaires bivariées de façon à prendre en compte la corrélation entre toxicité et efficacité. Au vu de l'ensemble des réponses observées au sein de chaque cohorte de patients, la dose est augmentée, diminuée ou inchangée pour la cohorte suivante, selon des critères définis en termes d'odds ratios et construits à partir des probabilités a posteriori relatives à la toxicité et à l'efficacité. Nous proposons une nouvelle classe de distributions a priori utilisant des transformations logistiques, ce qui, implicitement, impose une contrainte de monotonie à la relation dose‐toxicité et corrèle les probabilités des réponses bivariées. Des études de simulation permettent d'évaluer les caractéristiques opérationnelles de la méthode proposée. Dans différents scénarios, ce nouveau schéma bayésien, basé sur des odds ratios traduisant un compromis entre toxicité et efficacité, montre de bonnes propriétés et permet de traiter la plupart des patients aux niveaux de dose les plus souhaitables. Pour illustration, cette méthode est appliquée à une étude médicale à venir dans le cancer du sein. R. Baker andD.Jackson 785 Le biais de publication des résultats d'études médicales peuvent infirmer la médecine basée sur des faits prouvés (médecine factuelle). La méthodologie existante pour modéliser ceci, repose essentiellement sur la symétrie du graphique de l'entonnoir. Nous présentons une nouvelle méthode pour modéliser le biais de publication qui utilise cette information ainsi que le facteur d'impact des journaux concernés. Un modèle simple du processus de publication permet l'estimation des effets d'intervention corrigés de biais. La procédure est illustrée par une méta‐analyse de l'efficacité d'une prise unique orale d'aspirine pour une douleur aiguë, et nous obtenons aussi des résultats pour cinq autres méta‐analyses. Notre méthode permet l'ajustement d'un grand nombre de modèles et apparaît plus flexible que les autres méthodes visant à compenser le biais de publication. Notre modèle fournit également les bases d'une procédure statistique pour tester l'existence d'un biais de publication. Nous recommandons l'utilisation de cette nouvelle méthodologie en addition aux méthodes existantes dans le cadre d'une analyse de sensibilité. J. Z. Huang andL.Liu 793 Le modèle à risques proportionnels de Cox suppose en général un lien de dépendance exponentielle entre la fonction de risque et la valeur des covariables. Cependant, dans la pratique courante, cette hypothèse peut être violée et d'autres lois du risque relatif peuvent être plus appropriées. Dans cet article, nous considérons une fonction du risque relatif inconnue au sein du modèle à risques proportionnels. Notre objectif est d'en étudier les conséquences sur l'interprétation du modèle .Nous proposons une méthode permettant d'estimer simultanément la forme du risque relatif et les paramètres de la régression en approximant d'abord le logarithme du risque relatif par une fonction spline puis en utilisant une estimation par maximisation de la vraisemblance partielle. Une procédure itérative d'optimisation est développée pour une implémentation plus efficace. L'inférence statistique des coefficients de régression et de la forme du risque relatif basés sur la théorie paramétrique asymptotique sont discutés. Nous illustrons les méthodes proposées par des simulations et une application sur des données recueillies par la Veteran's Administration sur les cancers du poumon. J. Lin , D. Zhang , andM.Davidian 803 Nous proposons l'utilisation de tests de type “score” pour tester l'hypothèse de risques proportionnels ainsi que l'effet des covariables dans un modèle de Cox en utilisant la représentation naturelle de splines lissés des fonctions non‐paramétriques du temps et des covariables correspondantes. Les tests sont basés sur la vraisemblance partielle pénalisée et sont dérivés en considérant l'inverse du paramètre de lissage comme une composante de la variance, et considère l'hypothèse nulle que la composante de la variance est zéro. On montre que ces tests ont un niveau proche du niveau nominal et une bonne puissance contre des hypothèses alternatives générales. On applique ces méthodes à des données issues d'un essai clinique en oncologie. J. Huang , S. Ma , andH.Xie 813 Nous considérons deux approches de régularisation, la méthode LASSO et la régularisation limitée guidée par le gradient, pour l'estimation et la sélection de variables dans le modèle de vie accéléré avec plusieurs covariables basé sur la méthode des moindres carrés pondérés de Stute. L'estimateur de Stute utilise les pondérations de Kaplan‐Meier pour tenir compte de la censure dans le critère des moindres carrés. La fonction d'objectif des moindres carrés pondérés rend l'adaptation de cette approche aux situations avec des covariables multiples réalisable d'un point de vue calculatoire. Nous utilisons la validation croisée par V sous‐groupes et un critère d'information de Akaike modifié pour sélectionner les paramètres et une approche de “bootstrap” pour estimer la variance. La méthode proposée est évaluée à l'aide de simulations et appliquée à un jeu de données réel. L. Tian andS.Lagakos 821 Nous développons des méthodes pour étudier l'association entre une covariable binaire dépendant du temps et un délai d'apparition d' échec lorsque le premier n'est évalué qu'à un seul instant et le second est censuréà droite. De plus, les observations peuvent être tronquées et il y a des risques compétitifs d'échec. A l'aide d'un modèle à risques proportionnels pour étudier l'effet de la covariable sur le délai d'apparition d' échec, nous développons une approche basée sur l'algorithme EM et sur une vraisemblance de profile pour estimer le risque relatif et les risques associés à chaque cause d'échec. Les méthodes sont généralisées pour prendre en compte d'autres covariables qui pourraient influencer le processus de covariable dépendant du temps et les risques liés à chaque cause d'échec. Nous illustrons ces méthodes avec des données d'une étude récente sur l'association entre la perte de l'antigène e de l'hépatite B et le développement du carcinome hépatocellulaire dans une population de porteurs chroniques d'hépatite B. S. Datta andR.Sundaram 829 Nous nous intéressons aux modèles multi‐états utilisés pour décrire des individus (ou des unités expérimentales) passant par une succession de « stades » correspondant à des états distincts (par exemple: bonne santé, maladie, complications, décès). Les données récoltées peuvent être considérées comme une forme de données de survie multivariées, contenant de l'information sur les dates de transitions et les stades observés. L'analyse de survie classique constitue l'exemple le plus simple de ce type de modèles, les individus partant d'un stade initial (en général, « vivant ») et évoluant de manière irréversible vers un stade final (« décédé»). Dans cet article, nous considérons l'ensemble des modèles multi‐états supportés par une structure de graphe orienté (modèles progressifs), dans lesquels les individus passent d'un stade à l'autre de manière possiblement non markovienne. Nous construisons des estimateurs non paramétriques des probabilités de se trouver dans chaque stade, et des taux de transition cumulatifs marginaux. Nous utilisons l'information sur le statut final, ce qui représente une forme de censure plus sévère que l'habituelle censure à droite. La validité asymptotique de nos estimateurs peut être justifiée par des résultats sur la consistance des estimateurs non paramétriques de régression. Leur comportement en échantillon fini est étudié par simulations, lesquels démontrent que nos estimateurs basés sur des données limitées sont aussi bons que les estimateurs basés sur des données complètes. A titre d'exemple, nous appliquons notre méthode à des données réelles provenant d'une étude taïwanaise sur des maladies cardio‐vasculaires. R. Song , J. M. Karon , E. White , andG.Goldbaum 838 L'analyse de données de longueur biaisée a été essentiellement limitée à l'intervalle entre arrivées d'un processus de renouvellement recouvrant un point d'instant spécifique. Motivés par un problème de surveillance, nous considérons une situation plus générale dans laquelle ce point d'instant est aléatoire et reliéà un évènement spécifique, par exemple un changement de statut ou le début d'une maladie. Nous considérons aussi le problème dans lequel une information additionnelle est disponible que ce soit les intervalles d'évènement (intervalles entre arrivées couvrant l'évènement aléatoire) qui finissent à l'intérieur ou après une période aléatoire de temps (que nous appelons la période fenêtre) suivant l'évènement aléatoire. En supposant que le taux d'occurrence de l'évènement aléatoire est faible et que le processus de renouvellement est indépendant de l'évènement aléatoire, nous fournissons des formules de l'estimation de la distribution des temps entre arrivées fondées sur les intervalles observés entre évènements. Des procédures pour tester les suppositions nécessaires sont fournies. Nous appliquons nos résultats à des données test du virus humain d'immunodéficience (HIV) des sites test de Seattle, Washington, où l'évènement aléatoire est l'infection par HIV et la période fenêtre est du début de l'infection HIV jusqu'au temps auquel un test HIV moins sensible devient positif. Les résultats montrent que l'estimateur de la distribution de la longueur de l'intervalle entre tests à partir des intervalles d'évènement se terminant dans la période fenêtre est moins biaisé que l'estimateur provenant de tous les intervalles entre évènements; ce dernier estimateur est affecté par la troncature à droite. Enfin, nous discutons de possibles applications pour estimer l'incidence du HIV et pour analyser des échantillons dont la longueur est biaisée avec des données tronquées à droite ou à gauche. M. P. Fay , R. C. Tiwari , E. J. Feuer , andZ.Zou 847 On utilise souvent le pourcentage de variation annuelle pour mesurer l'évolution des taux d'incidence ou de mortalité et on l'estime en général à l'aide d'un modèle linéaire sur le logarithme des taux, standardisés par classe d'âge. En supposant une relation linéaire sur l'échelle logarithmique, c'est‐à‐dire un pourcentage de variation constant, ce pourcentage peut être défini indifféremment à partir 1) de la pente de la droite qui joint les logarithmes des taux; 2) du rapport du dernier taux sur le premier; 3) de la moyenne géométrique des variations successives des taux. Si la variation n'est pas constante, la première définition ne s'applique plus alors que les deux autres définissent sans ambiguïté un même paramètre. Nous appelons ce paramètre le pourcentage d'évolution annualisée et nous en proposons deux nouveaux estimateurs. Le premier, ou estimateur des deux points, n'utilise que le premier et le dernier taux; il n'exige aucune hypothèse concernant les taux intermédiaires. Il est asymptotiquement sans biais et nécessite moins d'hypothèses que le second mais présente une plus grande variabilité puisqu'il ignore les taux intermédiaires. Le second est un estimateur adaptatif qui a une forte probabilité d'être identique à l'estimateur linéaire si l'évolution est approximativement constante, mais qui n'utilise qu'une partie des observations quand on s'écarte de la linéarité sur l'échelle logarithmique. Pour l'estimateur à deux points, on peut utiliser les intervalles de confiance proposés pour les rapports de deux taux standardisés. Pour l'estimateur adaptatif, nous montrons à l'aide de simulations, que les intervalles de confiance obtenus par rééchantillonnage présentent un taux de recouvrement satisfaisant. M. Fuentes , H.‐R. Song , S. K. Ghosh , D. M. Holland , andJ. M.Davis 855 Les particules de matière (PM) ont été associées à différents problèmes graves dans la santé cardiovasculaire et respiratoire, incluant la mortalité prématurée. Le principal objectif de notre recherche est de quantifier l'incertitude concernant les effets de l'exposition aux PM fines sur la mortalité. Nous développons un modèle de régression multivarié spatial pour l'estimation du risque de mortalité associé aux PM fines et ces composantes à travers les comtés des Etats‐Unis. Nous caractérisons différentes sources de variabilité au sein des données et modélisons la structure spatiale des données de mortalité et des PM fines. Nous considérons un modèle hiérarchique Bayésien flexible pour des séries temporo‐spatiales de comptages (mortalité) en construisant une version basée sur la vraisemblance d'un modèle généralisé de régression de Poisson, qui combine des méthodes pour données mal alignées et pour changement de support. Nos résultats semblent suggérer une augmentation par un facteur 2 du risque de mortalité lié aux fines particules par rapport aux grosses particules. Notre étude montre aussi que dans l'ouest des Etats‐Unis, les composés de particules fines, de nitrates et de dépôt de croûte, semblent avoir un impact sur la mortalité plus important que les autres composés. D'autres part, dans l'est des Etats‐Unis, le sulfate et l'ammonium expliquent en grande part l'effet des fines PM. S. Banerjee andG. A.Johnson 864 La modélisation de données longitudinales d'expérimentations agronomiques utilisant des courbes de croissance permet de comprendre les conditions favorables ou défavorables à la croissance des plantes cultivées. Les récents développements des systèmes d'information géographiques (SIG) autorisent maintenant le géoréférencement des données agronomiques, ce qui facilite l'analyse des structures spatiales. Un problème fréquemment rencontré est celui de l'effet de la variabilité spatiale sur la trajectoire de croissance sur l'ensemble du domaine expérimental. La modélisation statistique de ces effets peut être rendue difficile par la réplication spatiale, omniprésente dans les expérimentations agronomiques, comportant souvent des matrices de sous‐parcelles — il est alors intéressant de pouvoir représenter l'effet de la variabilité spatiale à différentes résolutions. Nous développons ici un cadre de modélisation pour des courbes de croissance variant dans l'espace, à base de processus gaussiens qui représentent des associations à une ou plusieurs résolutions. Pour ce faire, nous proposons une hiérarchie de modèles bayésiens, où une paramétrisation flexible permet l'estimation et la prédiction spatialisée des courbes de croissance. Nous illustrons notre méthode avec des données de croissance d'adventices conduites à Waseca, Minnesota (USA), pour lesquelles la croissance de l'adventice Setaria spp. a été relevée dans un plan expérimental spatialement répliqué. Y. Wu , M. G. Genton , andL. A.Stefanski 877 Nous proposons une nouvelle statistique permettant de tester l'égalité de deux moyennes multivariées estimées sur un échantillon. La distribution de cette statistique, sous l'hypothèse nulle, est approximée par un Khi‐deux ajusté. De plus, comme cette statistique globale n'est autre que la somme pondérée des statistiques afférentes aux différentes composantes du vecteur multivarié d'intérêt, on peut l'appliquer —ce qui constitue un avantage par rapport au T 2 de Hotelling– au cas où le nombre de variables excède le nombre d'observations. On peut aussi —et c'est une particularité intéressante de ce nouveau test— l'appliquer en présence de données manquantes, celles‐ci n'intervenant pas dans l'évaluation des moments des composantes. Des simulations par la méthode de Monte Carlo indiquent que ce nouveau test offre une bonne puissance, par comparaison avec le T 2 de Hotelling et un test récemment proposé par Srivastava (2004). Ce test est appliquéà des données issues d'une recherche pharmaceutique.