La Méthode (la + methode)

Distribution by Scientific Domains

Kinds of La Méthode

  • de la méthode
  • par la méthode


  • Selected Abstracts


    Arbutin determination in medicinal plants and creams

    INTERNATIONAL JOURNAL OF COSMETIC SCIENCE, Issue 2 2009
    W. Thongchai
    Synopsis A simple flow injection (FI) manifold with spectrophotometric detection was fabricated and tested for arbutin determination. It is based on the measurement of a red-coloured product at 514 nm formed by the complexation reaction between arbutin and 4-aminoantipyrine (4-AP) in the presence of hexacyanoferrate (III) in an alkaline medium. On injecting 300 ,L standard solutions at various concentrations of arbutin into the FI system under optimum conditions, a linear calibration graph over the range of 1.0,30.0 ,g mL,1 arbutin was established. It is expressed by the regression equation y = 0.2188 ± 0.0036x + 0.1019 ± 0.0366 (r2 = 0.9990, n = 5). The detection limit (3,) and the limit of quantitation (10,) were 0.04 ,g mL,1 and 0.13 ,g mL,1, respectively. The RSD of intraday and interday precisions were found to be 1.2,1.4% and 1.7,2.7%, respectively. The method was successfully applied in the determination of arbutin in four selected fruits and three commercial whitening cream extracts with the mean recoveries of the added arbutin over the range of 96.2,99.0%. No interference effects from some common excipients used in commercial whitening creams were observed. The method is simple, rapid, selective, accurate, reproducible and relatively inexpensive. Résumé Un collecteur simple pour injection en flux (FI) avec détection spectrométrique a été fabriqué et testé pour le dosage de l'arbutine. Son principe repose sur la mesure à 514 nm du produit rouge formé par la réaction de complexation entre l'arbutine et le 4-aminoantipyrine (4-AP) en présence d'hexacyanoferrate (III) en milieu alcalin. On procède à une injection de 300 ,L des solutions standards à diverses concentrations d'arbutine dans le système FI aux conditions optimales, puis on réalise un graphe de calibration linéaire dans l'intervalle de 1,0 à 30,0 ,g mL,1 d'arbutine. Le graphe correspond à l'équation de régression y = 0.2188 ± 0.0036x + 0.1019 ± 0.0366 (r2 = 0.9990, n = 5). La limite de détection (3,) et la limite de quantification (10,) sont respectivement de 0.04 ,g mL,1 et 0.13 ,g mL,1. La RSD des précisions intra et inter jours sont respectivement de 1.2,1.4% et 1.7,2.7%. La méthode a été appliquée avec succès à la mesure de l'arbutine dans 4 fruits sélectionnés et 3 extraits de crèmes de blanchiment commercialisées avec une recouvrance moyenne de l'arbutine ajoutée de 96.2 à 99%. Aucune interférence avec les excipients communément utilisés dans les crèmes de blanchiment commerciales n'a été observée. La méthode est simple, rapide, sélective, précise, reproductible et relativement bon marché. [source]


    Using the Lee,Carter Method to Forecast Mortality for Populations with Limited Data,

    INTERNATIONAL STATISTICAL REVIEW, Issue 1 2004
    Nan Li
    Summary The Lee,Carter method for modeling and forecasting mortality has been shown to work quite well given long time series of data. Here we consider how it can be used when there are few observations at uneven intervals. Assuming that the underlying model is correct and that the mortality index follows a random walk with drift, we find the method can be used with sparse data. The central forecast depends mainly on the first and last observation, and so can be generated with just two observations, preferably not too close in time. With three data points, uncertainty can also be estimated, although such estimates of uncertainty are themselves highly uncertain and improve with additional observations. We apply the methods to China and South Korea, which have 3 and 20 data points, respectively, at uneven intervals. Résumé La méthode Lee,Carter de modélisation et de prévision de la mortalité a prouvé son bon fonctionnement avec des séries de données existant sur une longue période. Nous envisageons ici son utilisation lorsqu'on ne dispose que de quelques observations à intervalles irréguliers. En supposant que le modèle sous-jacent est correct et que l'indice de mortalité suit une marche aléatoire avec dérive, nous trouvons que cette méthode peut êetre utilisée avec des données éparses. La prévision centrale dépend alors principalement de la première et de la dernière observation. Elle peut donc êetre générée à partir de deux observations seulement, de préférence pas trop proches dans le temps. Avec trois points, on peut aussi estimer l'aléa, bienqu'un tel estimateur de l'aléa soit lui-mêeme très aléatoire. Il s'améliore cependant lorsqu'on dispose d'observations supplémentaires. Nous appliquons notre méthode àla Chine et à la Corée du Sud, pour lesquelles nous avons respectivement 3 et 20 points àintervalles irréguliers. [source]


    Design of irrigation water supply systems using the Q,C feasibility domain concept: I. Introduction and theory,

    IRRIGATION AND DRAINAGE, Issue 1 2009
    Gideon Sinai
    irrigation; alimentation en eau; qualité de l'eau; systèmes d'irrigation; analyse de la contamination des réseaux; débit de l'eau Abstract The Q,C Feasibility Domain (QCFD) was defined and proposed as a tool for design of multiquality irrigation water supply systems. It determines all feasible combinations of water discharge and water quality, and can be represented by a point, a line, or an area in a diagram of water discharge versus solute flow rate (a Q,J diagram). The shape of the QCFD is the result of dilution of two or more flows from sources of different water quality. (assuming conservative substances) Several types of QCFDs were analyzed at sources, inner nodes of a network, and of consumer outlets. The effect of water discharge constraints (due to flow limitations in the network) on the QCFDs was formulated and analyzed. Computation of QCFDs of dilution junctions by vector addition of their inflows was described. The method was extended numerically to nonlinear mixing due to dependence of water salinity. Use of this method enables computation of QCFDs for inner nodes in networks, including dilution junctions. The effect of network topology and flow direction was discussed. Application and demonstration will follow in the next paper in this series. Copyright © 2008 John Wiley & Sons, Ltd. Le domaine de faisabilité Q,C (QCFD) a été défini et proposé comme un outil pour la conception des systèmes d'alimentation en eau d'irrigation de qualités multiples. Il détermine toutes les combinaisons faisables de débit et de qualité de l'eau, et peut être représenté par un point, une ligne, ou un secteur dans un diagramme débit-concentration (un diagramme de Q,J). La forme du QCFD est le résultat de la dilution de deux écoulements ou plus provenant de sources de qualité différente (en supposant la conservation des quantités). Plusieurs types de QCFD ont été analysés aux sources, n,uds, et sorties du réseau. L'effet des contraintes de débit (dues aux limitations dans le réseau) sur le QCFD a été formulé et analysé. On décrit le calcul de QCFD aux jonctions par l'addition des vecteurs d'apports. La méthode a été étendues numériquement aux mélanges non linéaires du fait de la liaison avec la salinité de l'eau. L'utilisation de cette méthode permet le calcul de QCFD aux n,uds intérieurs des réseaux, y compris les jonctions de dilution. L'effet de la topologie de réseau et du sens d'écoulement a été discuté. L'application et la démonstration suivront dans le prochain papier de cette série. Copyright © 2008 John Wiley & Sons, Ltd. [source]


    Infection of Arceuthobium americanum by Colletotrichum gloeosporioides and its potential for inundative biological control

    FOREST PATHOLOGY, Issue 5 2005
    T. D. Ramsfield
    Summary Inundative biological control of Arceuthobium americanum occurring on Pinus contorta var. latifolia with the fungus Colletotrichum gloeosporioides was investigated. Isolates of C. gloeosporioides were collected throughout British Columbia, Canada, and one isolate was selected for assessment based on its growth and sporulation in culture. The fungus was formulated using the ,Stabileze' method and inoculated onto A. americanum under field conditions. It became established on some replicates and there was a higher incidence of C. gloeosporioides on treated replicates than controls. In some replicates, the treatment reduced fruit production, leading to a decrease in the reproductive capacity of the dwarf mistletoe plant; however, the efficacy was highly variable and not significant. Résumé Une méthode de lutte biologique utilisant le champignon Colletotrichum gloeosporioides contre Arceuthobium americanum sur Pinus contorta var. latifolia a étéétudiée. Des isolats de C. gloeosporioides ont été collectés dans toute la Colombie Britannique, au Canada, et un isolat a été sélectionné pour les essais, sur la base de sa croissance et de sa sporulation en culture. La préparation fongique a été formulée en utilisant la méthode 'Stabileze' et inoculée sur A. americanum sur le terrain. Le champignon s'est établi dans quelques cas et l'incidence de C. gloeosporioides a été plus forte dans les cas traités par rapport aux témoins. Dans quelques cas, le traitement a réduit la production de fruits, conduisant à une diminution de la capacité reproductive du faux-gui, toutefois l'efficacité s'est montrée très variable et globalement non significative. Zusammenfassung Es wurde die Eignung des Pilzes Colletotrichum gloeosporioides zur biologischen Bekämpfung von Arceuthobium americanum auf Pinus contorta var. latifolia untersucht. Verschiedene Isolate von C. gloeosporioides wurden in British Columbia (Kanada) gesammelt und ein Isolat wurde aufgrund seines guten Wachstums und der Sporulation in vitro für die Inokulationsexperimente ausgewählt. Die Konidien des Pilzes wurden nach der ,,Stabileze'' Methode formuliert und im Freiland auf A. americanum inokuliert. Der Pilz etablierte sich in einigen Fällen und C. gloeosporioides kam auf den behandelten Pflanzen häufiger vor als auf den Kontrollen. Bei einigen Wiederholungen war die Fruktifikation der Mistel reduziert; allerdings war dieser Effekt sehr variabel und die Unterschied war nicht signifikant. [source]


    In vitro evaluation of sun protection factors of sunscreen agents using a novel UV spectrophotometric technique

    INTERNATIONAL JOURNAL OF COSMETIC SCIENCE, Issue 4 2008
    M. D. Bleasel
    Synopsis A method for the in vitro determination of low- and high-value sun protection factors (SPF) of sunscreens using artificial substrates and a novel pseudo double beam (PDB) mode of operation of a standard double beam UV spectrophotometer is described. The method allows transmittance to be calculated from detector responses of reference and sample beams measured at different gain levels and facilitates the accurate quantification of low levels of electromagnetic radiation transmitted through highly absorbing samples. The spectrophotometer was modified to hold quartz diffusing plates on which a substrate [TransporeÔ adhesive tape or human stratum corneum obtained from a skin surface biopsy (SSB)] and the sunscreens to be tested were applied. The PDB mode of operation increased the effective linear range of the detector response of the spectrophotometer by a factor of approximately 20000-fold, enabling the in vitro SPF determination technique to be applied to both high and low SPF value sunscreens. Eight commercial sunscreens with known SPF values ranging from 4 to 77, previously determined by in vivo methods, were tested in vitro using both test substrates and correlations between the in vivo and in vitro values were determined. SPF values determined using the in vitro method correlated well with the known in vivo results (TransporeÔ tape, R2 = 0.611; SSB, R2 = 0.7928). The in vitro SPF obtained for one of the tested products differed substantially from the cited in vivo SPF value. Independent in vitro and in vivo re-evaluation of the SPF of this product matched the value predicted by the present method much more closely than the originally cited in vivo value. All determined SPFs were ordered correctly in comparison to in vivo ranking and the technique appeared to correctly identify a sunscreen that had a labelled SPF value that was significantly higher than its true SPF. Résumé Une méthode destinée à déterminer in vitro les facteurs de protection solaire (SPF) d'écrans solaires de faible et haut indice est décrite. Elle met en ,uvre des substrats artificiels et un nouveau mode opératoire reposant sur l'utilisation du pseudo double faisceau (PDB) d'un spectrophotomètre UV double faisceau standard. La méthode permet le calcul de la transmittence à partir des réponses du détecteur de référence et la mesure en simple faisceau à différents niveaux de gain facilitant ainsi la quantification précise des faibles niveaux de radiation électromagnétique (EMR) transmis à travers des échantillons hautement absorbants. Le spectrophotomètre a été modifié de façon à fixer des plaques diffusantes en quartz sur lesquelles un substrat (ruban adhésif Transport TM ou du stratum corneum humain obtenu à partir de biopsie de surface de peau (SSB) et les écrans solaires testés ont été appliqués. Le mode opératoire PTB augmente la gamme linéaire effective de la réponse du détecteur du spectrophotomètre d'un facteur approximatif 20.000 permettant, à cette technique de détermination des SPF in vitro, d'être appliquée à la fois sur les écrans solaires de haut et bas SPF. Huit écrans solaires commerciaux de SPF connus allant de 4 à 77, préalablement déterminés par des méthodes in vivo, ont été testés in vitro en utilisant les deux substrats, et les corrélations entre les valeurs in vivo et in vitro ont été déterminées. Les valeurs SPF déterminées en utilisant la méthode in vitro est bien corrélée avec les résultats in vivo connus (ruban transport, R2 = 0.611; SSB, R2 = .7928). Le SPF in vitro pour l'un des produits testés diffère fortement des valeurs SPF citées in vivo. Une réévaluation indépendante des SPF in vitro et in vivo de ce produit ajuste la valeur prédite par la présente méthode de façon beaucoup plus proche que la valeur originale citée in vivo. Tous les SPF ainsi déterminés sont ordonnés correctement en comparaison au classement in vivo et la technique semble identifier correctement un écran solaire qui possède un SPF libellé significativement plus haut que son vrai SPF. [source]


    Rapid and accurate identification of microorganisms contaminating cosmetic products based on DNA sequence homology

    INTERNATIONAL JOURNAL OF COSMETIC SCIENCE, Issue 6 2005
    Y. Fujita
    Synopsis The aim of this study was to develop rapid and accurate procedures to identify microorganisms contaminating cosmetic products, based on the identity of the nucleotide sequences of the internal transcribed spacer (ITS) region of the ribosomal RNA coding DNA (rDNA). Five types of microorganisms were isolated from the inner portion of lotion bottle caps, skin care lotions, and cleansing gels. The rDNA ITS region of microorganisms was amplified through the use of colony-direct PCR or ordinal PCR using DNA extracts as templates. The nucleotide sequences of the amplified DNA were determined and subjected to homology search of a publicly available DNA database. Thereby, we obtained DNA sequences possessing high similarity with the query sequences from the databases of all the five organisms analyzed. The traditional identification procedure requires expert skills, and a time period of approximately 1 month to identify the microorganisms. On the contrary, 3,7 days were sufficient to complete all the procedures employed in the current method, including isolation and cultivation of organisms, DNA sequencing, and the database homology search. Moreover, it was possible to develop the skills necessary to perform the molecular techniques required for the identification procedures within 1 week. Consequently, the current method is useful for rapid and accurate identification of microorganisms, contaminating cosmetics. Résumé Le but de cette étude est de développer une procédure rapide et fiable pour identifier les micro-organismes contaminant les produits cosmétiques. Cette procédure repose sur l'identification des séquences des nucléotides des espaceurs transcrits internes (Internal Transcribed Spacer ou région ITS), de l'ADN codant pour l'ARN ribosomique (rADN). Cinq types de micro-organismes sont isolés sur la partie intérieure des bouchons des flacons de lotions pour le soin de la peau et de gels lavants. Les régions ITS rADN des micro-organismes sont amplifiées grâce à l'utilisation de la méthode ,colony-direct PCR, ou ,ordinal PCR, en utilisant les extraits d'ADN comme matrices. Les séquences de nucléotides de l'ADN amplifiées sont évaluées et soumises à une recherche homologique dans une librairie d'ADN disponible au public. Ainsi, grâce aux bases de données, nous obtenons des séquences d'ADN qui possèdent une similaritéélevée avec les séquences recherchées des cinq organismes analysés. La procédure d'identification classique exige des compétences d'experts et une période d'environ un mois pour identifier les micro-organismes. D'autre part, il faut 3 à 7 jours pour terminer toutes les procédures utilisées dans la méthode ici décrite, y compris l'isolation et la culture des organismes, le séquençage de l'ADN et la recherche dermatologique dans les bases de données. De plus, il est possible en 1 semaine de développer les compétences nécessaires pour mettre en ,uvre les techniques moléculaires requises pour les procédures d'identification. Cette méthode est donc utile pour une identification rapide et fiable des micro-organismes qui contaminent les cosmétiques. [source]


    Objective determination of fatigue development following sun exposure using Advanced Trail Making Test

    INTERNATIONAL JOURNAL OF COSMETIC SCIENCE, Issue 1 2004
    T. Horikoshi
    Synopsis Sun exposure during leisure activity evokes fatigue. We employed the Advanced Trail Making Test (ATMT), a recently developed objective method of evaluating brain function performance used to measure mental fatigue, for objective determination of fatigue development caused by solar exposure to the human body. First, a survey of consumer awareness was performed, and fatigue development from solar exposure was generally recognized in both summer and spring. In the field test, 15 males (26,41 years old) received sun exposure equivalent to 100 kJ m,2 of ultraviolet radiation three to four times each day for 3 days, during which the subjects wore a short sleeve shirt and a short pant, and covered their head with a towel. A significant increase in scores for subjective sense of fatigue was observed in the evening of all 3 days following sun exposure and on the fourth day, which had no exposure, as well as in the morning of the third and fourth days, as compared with those periods during the control week, which did not have experimental solar exposure. ATMT showed a significant increase in average value in the evening of the first and second days following sun exposure, as well as in the morning of the third and fourth days. In addition, increases in body temperature and heart rate were observed during the exposure periods. The results of multiple regression analysis of subjective feelings showed that fatigue caused by solar exposure was qualitatively different from that in the control week. These results suggest that brain function performance declined following solar exposure as did fatigue development. ATMT results may be useful for quantitative and objective evaluation of mental fatigue caused by sun exposure, along with development of sun care products for the prevention of solar-caused fatigue. Résumé L'exposition au soleil pendant les activités de loisir provoque la fatigue. Nous avons utilisé la méthode ,Advanced Trail Making Test (ATMT)', une méthode d'évaluation objective de la faculté du fonctionnement du cerveau, récemment développée pour mesurer la fatigue mentale, dans le but de déterminer objectivement le processus de la fatigue du corps humain causée par l'exposition au soleil. Premièrement, nous avons mené un sondage sur la conscience du consommateur, et une évolution de la fatigue venant de l'exposition au soleil a été notée dans l'ensemble au printemps et en été. Lors des expériences sur le terrain, 15 sujets mâles (de 26 à 41 ans) ont été exposés au soleil, 3 à 4 fois par jour, pendant 3 jours. L'exposition était égale à 100 kJ m,2 de radiation ultraviolette. Pendant ces 3 jours, les sujets étaient vêtus d'une chemize à manches courtes et d'un pantalon court, et avaient la tête couverte d'une serviette. Nous avons observé une augmentation considérable du score représentant la sensation subjective de fatigue le soir des 3 jours suivant l'exposition au soleil, et le soir du quatrième jour, sans exposition, de même que le matin des troisième et quatrième jours, en comparaison avec les mêmes périodes de la semaine de contrôle, sans exposition expérimentale au soleil. Les résultats du test de l'ATMT ont montré une augmentation considérable de la valeur moyenne le soir des premier et second jours suivant l'exposition au soleil, aussi bien que le matin des troisième et quatrième jours. De plus, nous avons observé une augmentation de la température du corps et du pouls pendant les moments d'exposition. L'analyse de régression multiple des résultats de la sensation subjective a montré que la fatigue causée par l'exposition était qualitativement différente que celle de la semaine de contrôle. Ces résultats suggèrent que la faculté de fonctionnement du cerveau baisse après l'exposition au soleil, comme le fait la fatigue. Les résultats de l'ATMT peuvent être utiles pour l'évaluation quantitative et objective de la fatigue mentale causée par l'exposition au soleil, ceci allant de pair avec le développement des produits de soin contre le soleil pour la prévention de la fatigue causée par le soleil. [source]


    Modelling & Controlling Monetary and Economic Identities with Constrained State Space Models

    INTERNATIONAL STATISTICAL REVIEW, Issue 2 2007
    Gurupdesh S. Pandher
    Summary The paper presents a method for modelling and controlling time series with identity structures. The approach is presented in the context of monetary targeting where the monetary identity (e.g. reserve money equals net foreign assets plus domestic credit) is modelled using a constrained state space model and next-period changes in domestic credit (policy variable) are estimated to reach the target level of reserve money. The constrained modelling ensures that aggregation and identity relations among items are dynamically satisfied during estimation, leading to more accurate forecasting and targeting. Applications to Germany, UK and USA show that the constrained state space model provides significant improvements in targeting and forecasting performance over the AR(1) benchmark and the unconstrained model. Reduction in the mean square error of targeting over AR(1) is in the range of 76,95% for the three countries while the gain in targeting efficiency over unconstrained modelling is between 21% and 55%. Beyond monetary targeting, the method has wide application to the dynamic modelling and control of economic and financial time series with identity and aggregation constraints (e.g. balance of payment, national income, purchasing power parity, company balance sheet). Résumé L'article présente une méthode de modélisation et de contrôle des séries temporelles avec des structures d'identité. L'approche est présentée dans le contexte de ciblage monétaire où l'identité monétaire (c. à d. monnaie de réserve égale avoirs étrangers plus crédit intérieur) est modélisée en utilisant un modèle spatial sous contrainte et où les variations du crédit intérieur à la période suivante (variable de politique) sont estimés pour atteindre le niveau visé de monnaie de réserve. La modélisation sous contrainte assure que les relations d'agrégation et d'identité entre items sont satisfaites en dynamique dans l'estimation, ce qui conduit à des prévisions et ciblages plus précis. L'application à l'Allemagne, le Royaume-Uni et les USA montrent que le modèle contraint apporte des améliorations importantes dans la performance de ciblage et de prévision par rapport à l'étalonnage auto-régressif (1) et au modèle sans contrainte. La réduction d'erreur du moindre carré par rapport à l'AR est comprise entre 76 et 95% pour les trois pays tandis que le gain en efficacité de ciblage sur le modèle sans contrainte se situe entre 21 et 55%. Par delà le ciblage monétaire, la méthode a une large application à la modélisation dynamique et au contrôle des séries temporelles économiques et financières avec des contraintes d'identité et d'agrégation (par ex. la balance des paiements, le revenu national, la parité de pouvoir d'achat, le bilan d'une compagnie). [source]


    On the Construction of Imputation Classes in Surveys

    INTERNATIONAL STATISTICAL REVIEW, Issue 1 2007
    David Haziza
    Summary This paper explores the problem of the construction of imputation classes using the score method, sometimes called predictive mean stratification or response propensity stratification, depending on the context. This method was studied in Thomsen (1973), Little (1986) and Eltinge & Yansaneh (1997). We use a different framework to evaluate the properties of the resulting imputed estimator of a population mean. In our framework, we condition on the realized sample. This enables us to considerably simplify our theoretical developments in the frequent situation where the boundaries and the number of classes are sample-dependent. We find that the key factor for reducing the non-response bias is to form classes homogeneous with respect to the response probabilities and/or the conditional expectation of the variable of interest. In the latter case, the non-response/imputation variance is also reduced. Finally, we performed a simulation study to fully evaluate various versions of the score method and to compare them with a cross-classification method, which is frequently used in practice. The results showed the superiority of the score method in general. Résumé Cet article étudie la construction des classes d'imputation par la méthode des scores, appelée également stratification par moyenne prédite ou stratification par propensité de réponse selon le contexte. Cette méthode a étéétudiée par Thomsen (1973), Little (1986) et Eltinge et Yansaneh (1997). Nous utilisons un cadre de travail différent permettant d'évaluer les propriétés de l'estimateur imputé de la moyenne de la population selon lequel nous conditionnons sur l'échantillon réalisé. Ceci nous permet de simplifier considérablement les développements théoriques lorsque les bornes et le nombre de classes dépendent de l'échantillon, ce qui survient fréquemment en pratique. Nous déterminons que le facteur clé permettant de réduire le biais du à la non-réponse est de former des classes qui soient homogènes par rapport aux probabilités de réponse et/ou à l'espérance conditionnelle de la variable d'intérêt. Dans ce dernier cas, la variance due à la non-réponse et à l'imputation est également réduite. Finalement, nous effectuons une étude par simulation afin d'évaluer en profondeur plusieurs versions de la méthode des scores et de comparer celles-ci avec la méthode par croisement qui est fréquemment utilisée en pratique. Les résultats obtenus montrent la supériorité de la méthode des scores en général. [source]


    A Foundational Justification for a Weighted Likelihood Approach to Inference

    INTERNATIONAL STATISTICAL REVIEW, Issue 3 2004
    Russell J. Bowater
    Summary Two types of probability are discussed, one of which is additive whilst the other is non-additive. Popular theories that attempt to justify the importance of the additivity of probability are then critically reviewed. By making assumptions the two types of probability put forward are utilised to justify a method of inference which involves betting preferences being revised in light of the data. This method of inference can be viewed as a justification for a weighted likelihood approach to inference where the plausibility of different values of a parameter , based on the data X, is measured by the quantity q(,) =l(X,, ,)w(,), where l(X,, ,) is the likelihood function and w(,) is a weight function. Even though, unlike Bayesian inference, the method has the disadvantageous property that the measure q(,) is generally non-additive, it is argued that the method has other properties which may be considered very desirable and which have the potential to imply that when everything is taken into account, the method is a serious alternative to the Bayesian approach in many situations. The methodology that is developed is applied to both a toy example and a real example. Résumé Deux types de probabilité sont discutées, dont l'une est additive et l'autre non additive. Les théories populaires qui tentent de justifier l'importance de l'additivité des probabilités font l'objet d'une analyse critique. En faisant des hypothèses, on utilise les deux types de probabilité proposés pour justifier une méthode d'inférence concernant des préférences de paris que l'on révise en fonction des données. Cette méthode d'inférence peut être considérée comme une justification de l'approche de vraisemblance pondérée, oú l'on mesure la plausibilité de différentes valeurs d'un paramètre ,. Bien que dans cette méthode, la mesure du paramètre de vraisemblance ne soit pas additive, la méthode a d'autres propriétés intéressantes qui font qu'elle peut être considérée comme une alternative sérieuse à l'aproche Bayésienne dans de nombreuses situations. La méthodologie est appliquée à la fois à un exemple fictif et un exemple réel. [source]


    Population status, structure and activity patterns of the Bohor reedbuck Redunca redunca in the north of the Bale Mountains National Park, Ethiopia

    AFRICAN JOURNAL OF ECOLOGY, Issue 2 2010
    Bezawork Afework
    Abstract The Bohor reedbucks Redunca redunca (Pallas, 1767) were studied in the Bale Mountains National Park (BMNP), Ethiopia to assess their population ecology and activity patterns. The total count method was used to assess population size. Activity patterns of a herd were studied with five minutes recording intervals. There were 406 Bohor reedbucks in the study area of which 96.8% (n = 393) was confined to the Gaysay-Adelay area. The population was female-biased. Excluding juveniles, 57.1% (n = 232) was females and 33.5% (n = 136) was males. More adults (71.7%, n = 291) were observed than sub-adults (18.9%, n = 77) and juveniles (9.4%, n = 38). The herd size of Bohor reedbucks varied from 3 to 5. Herds were seen in aggregations of up to 59 individuals during the dry season in swamp grassland habitat. The maximum number observed in such aggregations during the wet season was 38. The diurnal activity pattern showed feeding peaks early in the morning and late in the afternoon, with resting during the mid-day. Two feeding peaks were observed in the nocturnal activity phase: one during dusk and the other around midnight. In contradiction to the general concept of occurrence of smaller herds during the dry season, the Bohor reedbucks aggregate in swamps during the dry season. They were also active during night and day time. Résumé On a étudié les reduncas Redunca redunca (Pallas, 1767) dans le Parc National des Bale Mountains (BMNP), en Ethiopie, pour connaître l'écologie et le schéma des activités de leur population. On a utilisé la méthode des comptages totaux pour évaluer la taille de la population. On a étudié le schéma des activités d'une harde en rapportant les observations à intervalles de cinq minutes. Il y avait 406 reduncas dans l'aire étudiée; 96,8% (n = 393) d'entre eux étaient confinés dans la région Gaysay-Adalay. La population était biaisée en faveur des femelles. Si l'on exclut les juvéniles, 57,1% (n = 232) étaient des femelles et de 33,5% (n = 136) étaient des mâles. On a observé plus d'adultes (71,7%, n = 291) que de subadultes (18,9%, n = 77) et de juvéniles (9,4%, n = 38). La taille d'une harde de reduncas variait de 3 à 5 individus. On a observé des agrégats de hardes allant jusqu'à 59 individus en saison sèche, dans la prairie marécageuse. Le plus grand agrégat de ce genre observé en saison des pluies comptait 38 individus. Le schéma d'activité diurne présentait des pics de nourrissage tôt le matin et en fin d'après-midi, et du repos pendant la mi-journée. On a observé deux pics de nourrissage pendant la phase d'activité nocturne : une au crépuscule et l'autre autour de minuit. Contrairement à l'idée générale selon laquelle les plus petites hardes s'observent pendant la saison sèche, les reduncas se rassemblent dans les marais pendant cette saison. Ils sont aussi actifs le jour et la nuit. [source]


    A survey of the apes in the Dzanga-Ndoki National Park, Central African Republic: a comparison between the census and survey methods of estimating the gorilla (Gorilla gorilla gorilla) and chimpanzee (Pan troglodytes) nest group density

    AFRICAN JOURNAL OF ECOLOGY, Issue 1 2001
    A. Blom
    Abstract A survey of apes was carried out between October 1996 and May 1997 in the Dzanga sector of the Dzanga-Ndoki National Park, Central African Republic (CAR), to estimate gorilla (Gorilla gorilla gorilla) and chimpanzee (Pan troglodytes) densities. The density estimates were based on nest counts. The strip transect census and the line transect survey method (Standing Crop Nest Count) were used to estimate the gorilla nest group density. The strip transect has been most commonly used to date. It assumes that all nest groups within the width of the strip are detected, but as this assumption is easily violated in the dense tropical rain forest, the line transect survey was also used. In this method, only the nest groups on the transect line itself should be detected. This method proved to be an adequate and easy technique for estimating animal densities in dense vegetation. The gorilla density of 1.6 individuals km,2 (line transect survey method) found for the Dzanga sector is one of the highest densities ever reported in the literature for the Western lowland gorilla. The density estimate for chimpanzees was 0.16 individuals km,2 (census method). The results of this study confirm the importance of the Dzanga-Ndoki National Park for primate conservation. Résumé Entre octobre 1996 et mai 1997, on a étudié les grands singes du secteur de Dzanga dans le Parc National de Dzanga-Ndoki, en République Centrafricaine (RCA), pour évaluer les densités de gorilles (Gorilla gorilla gorilla) et de chimpanzés (Pan troglodytes). Les estimations de densité se basaient sur le comptage des nids. On a utilisé le recensement par bande transect et la méthode de contrôle par transect linéaire (comptage réel des nids) pour estimer la densité des groupes de nids de gorilles. C'est la bande transect qui est la plus communément utilisée à ce jour. Cela suppose que l'on détecte tous les groupes de nids inclus dans la largeur de la bande, mais comme cette supposition est facilement mise en défaut dans la forêt tropicale humide dense, on a aussi utilisé la méthode des transects en ligne. Avec cette méthode, seuls les groupes de nids qui sont sur la ligne de transect doivent être détectés. Cette méthode s'est révélée une technique adéquate et facile pour estimer les densités animales dans la végétation dense. La densité des gorilles (1,6 individus / km2) relevée pour le secteur de Dzanga est une des plus élevées jamais reportées dans la littérature pour le Gorille de plaine occidental. On a estimé la densité des chimpanzés à 0,16 individus / km2 (par la méthode de recensement). Les résultats de cette étude confirment l'importance du Parc National de Dzanga-Ndoki pour la conservation des primates. [source]


    Simulation and validation of ethanol removal from water in an adsorption packed bed: Isotherm and mass transfer parameter determination in batch studies

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 5 2010
    R. A. Jones
    Abstract Preferential adsorption of ethanol from ethanol/water mixtures in batch equilibrium and kinetic experiments were carried out on a commercially available activated carbon adsorbent Filtrasorb 600 (F-600). A model based on finite difference method was developed and employed to determine the mass transfer parameters and equilibrium behaviour for the adsorption of ethanol from simple batch systems. The estimates of the adsorption isotherm along with the mass transfer parameters were used to simulate the transient performance that could be expected in a packed bed under various operating conditions (feed flow rate, feed concentration, and particle size). The applicability of the simulation results were found to be a good match with experimental packed bed experiments over the entire range of operating conditions tested. La cinétique et l'isotherme d'adsorption de l'éthanol des mélanges eau/éthanol lors d'expériences en discontinus ont été déterminées pour un adsorbant au charbon activé disponible dans le commerce, le Filtrasorb 600 (F-600). Un modèle basé sur la méthode des différences finies a été développé et utilisé pour déterminer les paramètres de transfert de matière et étudier le comportement à l'équilibre pour l'adsorption préférentielle de l'éthanol en systèmes discontinus. Les estimations de l'isotherme d'adsorption aussi bien que les paramètres de transfert de matière ont été utilisées pour simuler la performance en régime transitoire d'un lit d'adsorbant sous diverses conditions de fonctionnement (taux d'écoulement du mélange, concentration du mélange et la taille des particules). L'applicabilité des résultats de simulation s'est avérée tout à fait concordante avec les données expérimentales sous toutes les conditions de fonctionnement examinées. [source]


    Mixed convection flow of non-Newtonian fluid from a slotted vertical surface with uniform surface heat flux

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 4 2009
    Rama Subba Reddy Gorla
    Abstract In the present paper, the combined convection flow of an Ostwald,de Waele type power-law non-Newtonian fluid past a vertical slotted surface has been investigated numerically. The boundary condition of uniform surface heat flux is considered. The equations governing the flow and the heat transfer are reduced to local non-similarity form. The transformed boundary layer equations are solved numerically using implicit finite difference method. Solutions for the heat transfer rate obtained for the rigid surface compare well with those documented in the published literature. From the present analysis, it is observed that, an increase in , leads to increase in skin friction as well as reduction in heat transfer at the surface. As the power-law index n increases, the friction factor as well as heat transfer increase. Dans cet article, on a étudié numériquement l'écoulement de convection combinée d'un fluide non-newtonien de loi de puissance de type Ostwald-de Waele en aval d'une surface perforée verticale. La condition limite d'un flux de chaleur de surface uniforme est considérée. Les équations gouvernant l'écoulement et le transfert de chaleur sont réduites à la forme de non-similarité locale. Les équations de couche limite transformées sont résolues numériquement par la méthode des différences finies implicites. Les solutions pour la vitesse de transfert de chaleur obtenues pour la surface rigide se comparent bien à celles qui sont décrites dans la littérature scientifique publiée. À partir de la présente analyse, on observe qu'une augmentation de , mène à une augmentation du frottement superficiel ainsi qu'à une réduction du transfert de chaleur à la surface. Lorsque l'indice de loi de puissance n augmente, le facteur de friction et le transfert de chaleur augmentent également. [source]


    Numerical modelling and simulation of pulverized solid-fuel combustion in swirl burners

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 3 2009
    H. Ettouati
    Abstract A finite-volume numerical model for computer simulation of pulverized solid-fuel combustion in furnaces with axisymmetric-geometry swirl burner is presented. The simulation model is based on the k,,,, single phase turbulence model, considering the presence of the dispersed solid phase via additional source terms in the gas phase equations. The dispersed phase is treated by the particle source in cell (PSIC) method. Solid fuel particle devolatilization, homogenous and heterogeneous chemical reaction processes are modelled via a global combustion model. The radiative heat transfer equation is also resolved using the finite volume method. The numerical simulation code is validated by comparing computational and experimental results of pulverized coal in an experimental furnace equipped with a swirl burner. It is shown that the developed numerical code can successfully predict the flow field and flame structure including swirl effects and can therefore be used for the design and optimization of pulverized solid-fuel swirl burners. On présente un modèle numérique de volumes finis pour la simulation par ordinateur de la combustion de combustibles solides pulvérisés dans des fours munis de brûleur à tourbillon axisymétrique. Le modèle de simulation repose sur le modèle de turbulence monophasique k,,,,, et décrit la présence de la phase solide dispersée par le biais de termes-sources additionnels dans les équations de la phase gazeuse. La phase dispersée est traitée par la méthode PSIC. La dévolatilisation des particules combustibles solides et les procédés de réaction chimique homogène et hétérogène sont modélisés à l'aide d'un modèle de combustion global. L'équation de transfert de chaleur radiatif est également résolue par la méthode des volumes finis. Le code de simulation numérique a été validé en comparant les résultats des calculs par ordinateur avec des expériences pour du charbon pulvérisé dans un four expérimental équipé d'un brûleur à tourbillon. On montre que le code numérique peut prédire avec succès le champ d'écoulement et la structure de flamme y compris les effets tourbillonnaires et qu'il peut donc servir à la conception et à l'optimisation des brûleurs à tourbillons pour les combustibles solides pulvérisés. [source]


    The Effects of Surface Waviness and Length on Electrokinetic Transport in Wavy Capillary

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 1 2006
    Noor Quddus
    Abstract An electrokinetic model for a wavy capillary has been developed. Poisson-Nernst-Planck and Navier-Stokes equations constitute the model that governs fluid and ionic fluxes and electric potential distribution inside the capillary. In the present paper, a finite wavy cylindrical capillary with a large reservoir at both capillary ends is analyzed using finite element method. The model is used primarily to examine the influence of capillary surface waviness on the electrokinetic transport behaviours. Different frequencies and amplitudes of the wavy surface are considered to investigate the influence of surface waviness on electrokinetic transport. Fluctuations in potential and ionic concentration distribution increase with the increase in either amplitude or frequency of the capillary surface waviness. However, for higher frequencies the fluctuation diminishes for all surface waviness amplitudes. It is observed that for any irregularity in the capillary surface results in higher salt rejection. Salt rejection is found to be dependent on capillary axial length as well as flow velocity. A critical Peclet number, beyond which salt rejection attains a constant steady value, dictates maximum salt rejection. On a mis au point un modèle électrocinétique pour un capillaire onduleux. Les équations de Poisson-Nernst-Planck et de Navier-Stokes constituent le modèle qui gouverne le fluide et les flux ioniques ainsi que la distribution de potentiel électrique dans le capillaire. Dans le présent article, on analyse par la méthode des éléments finis un capillaire cylindrique onduleux fini possédant un grand réservoir aux deux extrémités du capillaire. Le modèle sert principalement à examiner l'influence de l'ondulation de la surface capillaire sur les comportements de transport électrocinétiques. On prend en compte différentes fréquences et amplitudes de la surface onduleuse pour étudier l'influence de l'ondulation de surface sur le transport électrocinétique. Les fluctuations dans la distribution de concentration potentielle et ionique augmentent l'amplitude ou la fréquence d'ondulation de surface capillaire. Toutefois, pour des fréquences plus élevées, la fluctuation diminue pour toutes les amplitudes d'ondulation de surface. On a observé que toute irrégularité dans la surface capillaire entraîne un plus grand rejet de sel. On a trouvé que le rejet de sel était dépendant de la longueur axiale de capillaire ainsi que de la vitesse d'écoulement. Un nombre de Peclet critique, au-delà duquel le rejet de sel atteint une valeur stable constante, dicte le rejet de sel maximum. [source]


    Parameter Estimation in the Error-in-Variables Models Using the Gibbs Sampler

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 1 2006
    Jessada J. Jitjareonchai
    Abstract Least squares and maximum likelihood techniques have long been used in parameter estimation problems. However, those techniques provide only point estimates with unknown or approximate uncertainty information. Bayesian inference coupled with the Gibbs Sampler is an approach to parameter estimation that exploits modern computing technology. The estimation results are complete with exact uncertainty information. The Error-in-Variables model (EVM) approach is investigated in this study. In it, both dependent and independent variables contain measurement errors, and the true values and uncertainties of all measurements are estimated. This EVM set-up leads to unusually large dimensionality in the estimation problem, which makes parameter estimation very difficult with classical techniques. In this paper, an innovative way of performing parameter estimation is introduced to chemical engineers. The paper shows that the method is simple and efficient; as well, complete and accurate uncertainty information about parameter estimates is readily available. Two real-world EVM examples are demonstrated: a large-scale linear model and an epidemiological model. The former is simple enough for most readers to understand the new concepts without difficulty. The latter has very interesting features in that a Poisson distribution is assumed, and a parameter with known distribution is retained while other unknown parameters are estimated. The Gibbs Sampler results are compared with those of the least squares. Les techniques de moindres carrés et de similitude maximale sont utilisées depuis longtemps dans les problèmes d'estimation des paramètres. Cependant, ces techniques ne fournissent que des estimations ponctuelles avec de l'information sur les incertitudes inconnue ou approximative. L'inférence de Bayes couplée à l'échantillonneur de Gibbs est une approche d'estimation paramétrique qui exploite la technologie moderne de calcul par ordinateur. Les résultats d'estimation sont complets avec l'information exacte sur les incertitudes. L'approche du modèle d'erreurs dans les variables (EVM) est étudiée dans cette étude. Dans cette méthode, les variables dépendantes et indépendantes contiennent des erreurs de mesure, et les véritables valeurs et incertitudes de toutes les mesures sont estimées. Ce système EVM mène à une dimensionnalité inhabituellement grande dans le problème d'estimation, ce qui rend l'estimation de paramètres très difficile avec les techniques classiques. Dans cet article, une façon innovante d'effectuer l'estimation de paramètres est présentée aux ingénieurs de génie chimique. On montre dans cet article que la méthode est simple et efficace; de même, de l'information complète et précise sur l'incertitude d'estimation de paramètres est accessible. Deux exemples d'EVM en situation réelle sont montrés, soient un modèle linéaire de grande échelle et un modèle épidémiologique. Le premier modèle est suffisamment simple pour la plupart des lecteurs pour comprendre les nouveaux concepts sans difficulté. Le deuxième possède des caractéristiques extrêmement intéressantes, en ce sens qu'on suppose une distribution de Poisson et qu'un paramètre ayant une distribution connue est retenu pendant que d'autres paramètres non connus sont estimés. Les résultats de l'échantillonneur de Gibbs sont comparés à ceux de la méthode des moindres carrés. [source]


    Analyse Expérimentale et Numérique du Comportement de Membranes Thermoplastiques en ABS et en HIPS dans le Procédé de Thermoformage

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 3 2005
    Fouad Erchiqui
    Abstract Dans cet article nous nous intéresserons, d'une part à la caractérisation biaxiale, en soufflage libre du comportement des membranes thermoplastiques circulaires en ABS et en HIPS et, d'autre part à la simulation numérique de la mise en forme d'une pièce creuse en ABS et en HIPS. Les modèles de comportement hyperélastique de Mooney-Rivlin et d'Ogden sont considérés. Dans un premier temps nous utilisons la méthode des différences finies à pas variables pour la résolution du problème d'équilibre de la membrane et un algorithme modifié de Levenberg-Marquardt pour minimiser la différence entre la pression calculée et celle mesurée. Ceci permet l'identification des constantes matérielles incorporées dans les modèles utilisés. Pour la modélisation numérique par la méthode dynamique des éléments finis, nous considérons une formulation lagrangienne, l'hypothèse de la théorie des membranes et une charge en pression, découlant de la loi des gaz parfaits, pour étudier l'influence des lois de comportements sur la distribution finale des épaisseurs et des contraintes dans une pièce thermoformée en ABS et en HIPS. In this work, we are interested, on the one hand in the characterization of circular polymeric ABS and HIPS membrane under biaxial deformation using the bubble inflation technique, on the other hand in modelling and numerical simulation of the thermoforming of ABS and HIPS materials using the dynamic finite element method. Hyperelastic models (Mooney-Rivlin, Ogden) are considered. First, the governing equations for the inflation of a flat circular membrane are solved using a variable-step-size-finite difference method and a modified Levenberg-Marquardt algorithm to minimize the difference between the calculated and measured inflation pressure. This will determine the material constants embedded within the models used. For numerical simulation, the lagrangian formulation together with the assumption of the membrane theory is used. Moreover, the influence of the hyperalastic model on the thickness and on the stress distribution in the thermoforming sheet are analysed for ABS and HIPS materials. [source]


    Further developments in the new approach to boundary condition iteration in optimal control

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 6 2001
    Rein LuusArticle first published online: 3 SEP 2010
    Abstract In solving the boundary value problem resulting from the use of Pontryagin's maximum principle, a transformation matrix is used to relate the sensitivity of the final state to the initial state. This avoids the need to solve the (n × n) differential equation to give the transition matrix, and yields very rapid convergence to the optimum. To ensure convergence, iterative dynamic programming (IDP) is used for a number of passes to yield good starting conditions for this boundary condition iteration procedure. Clipping technique is used to handle constraints on control. Five optimal control problems are used to illustrate and to test the procedure. Dans la résolution du problème de valeur limlte résultant de l'utilisation du principe maximum de Pontryagin, on utilise une matrice de transformation afin de relier la sensibilité de l'état final à l'état initial. Cela évite d'avoir à résoudre l'équation différentielle (n × n) pour obtenir la matrice de transition et permet une convergence trés rapide vers l'optimum. Pour assurer la convergence, on a recours à la programmation dynamique itérative (IDP) pour plusieurs passages afin de créer de bonnes conditions de démarrage pour cette méthode d'itération sur les conditions limites. On utilise la technique de l'écêtage pour manier les contraintes sur le contrôle. Cinq problèmes de contrôle optimal permettent d'illustrer et de vérifier la méthode. [source]


    Performance of symmetric polygonal fins with and without tip loss , A comparison of different methods of prediction

    THE CANADIAN JOURNAL OF CHEMICAL ENGINEERING, Issue 2 2000
    Balaram Kundu
    Abstract No analytical solution exists for estimating the efficiency of symmetric polygonal fins (SPFs) circumscribing circular tubes. Performance of such fins is conventionally determined from either of the two approximate techniques, namely, the equivalent annulus method and the sector method. The present work aims to judge the relative merits and applicability of these two methods critically. To this end, the results obtained from the approximate techniques have compared with those obtained from a semi-analytical technique. It has been noted that, with the increase of the tip heat loss, the accuracy of prediction from any of the approximate methods decreases. For the sector method, a modification has been suggested. The prediction from the modified version of the sector method is always more accurate than that from the equivalent annulus method. It has been further illustrated that though the approximate techniques can be employed for the prediction of efficiency, they cannot be used to predict the tip temperatures accurately. Il n'existe pas de solution analytique pour estimer l'efficacité des ailettes polygonales symétriques (5PF) circonscrivant des tubes circulaires. La performance de telles ailettes est traditonnellement déterminée par l'une ou l'autre des techniques approximatives, à savoir la méthode de l'espace annulaire équivalent et la méthode des secteurs. Ce travail a pour but de juger des mérites et de l'applicabilité relatifs de ces deux méthodes de manière critique. à cette fin, les résultats obtenus par ces techniques approximatives sont cornparés à ceux d'une technique semi-analytique. On a constatè que, avec l'augmentation de la perte de chaleur aux extrémités, la précision de la prédiction de ces méthodes approximatives diminue. Pour la méthode des secteurs, une modification est proposée. La prédiction de la version modifiée de la méthode des secteun est toujours plus précise qu'avec la méthode de l'espace annulaire équivalent. On illustre par ailleurs le fait que bien que les techniques approximatives puissent servir à la prédiction de l'efficacitè, elles ne permettent pas de prédire avec précision les températures aux extrémités. [source]


    On inference for a semiparametric partially linear regression model with serially correlated errors

    THE CANADIAN JOURNAL OF STATISTICS, Issue 4 2007
    Jinhong You
    Abstract The authors consider a semiparametric partially linear regression model with serially correlated errors. They propose a new way of estimating the error structure which has the advantage that it does not involve any nonparametric estimation. This allows them to develop an inference procedure consisting of a bandwidth selection method, an efficient semiparametric generalized least squares estimator of the parametric component, a goodness-of-fit test based on the bootstrap, and a technique for selecting significant covariates in the parametric component. They assess their approach through simulation studies and illustrate it with a concrete application. L'inférence dans le cadre d'un modèle de régression semiparamétrique partiellement linéaire à termes d'erreur corrélés en série Les auteurs s'intéressent à un modèle de régression semiparamétrique partiellement linéaire à termes d'erreur corrélés en série. Ils proposent une façon originale d'estimer la structure d'erreur qui a l'avantage de ne faire intervenir aucune estimation non paramétrique. Ceci leur permet de développer une procédure d'inférence comportant un choix de fen,tre, l'emploi de la méthode des moindres carrés généralisés pour l'estimation semiparamétrique efficace de la composante paramétrique, un test d'adéquation fondé sur le rééchantillonnage et une technique de sélection des covariables significatives de la composante paramétrique. Ils évaluent leur approche par voie de simulation et en donnent une illustration concrète. [source]


    L'évaluation de la performance économique des entreprises publiques africaines par la méthode des comptes de surplus

    ANNALS OF PUBLIC AND COOPERATIVE ECONOMICS, Issue 2 2001
    Mapapa Mbangala
    This paper focuses on the assessment of the economic performance of seven African railway enterprises using a Total Factor Productivity index decomposition. This method shows the role of these public enterprises in the production and distribution of added value. The analysis allows to identify the, positive or negative, contribution of each production factor to productivity growth. At the same time, it shows how the firm's partners do, or do not benefit from the added value created by these companies. [source]


    Joint Assessment of Optimal Sales Force Sizes and Sales Call Guidelines: A Management-Oriented Tool

    CANADIAN JOURNAL OF ADMINISTRATIVE SCIENCES, Issue 3 2005
    René Y. Darmon
    Abstract Sales force sizing and sales effort allocation methods vary from simplistic rules of thumb to sophisticated analytical procedures. The former methods are easy to understand and implement, but they are typically inaccurate and probably invalid. The latter procedures may provide more accurate and valid results, but they are more difficult to explain to management and require data collection and analysis that are often quite elaborate. This paper proposes a method of optimal estimation of total sales effort level and time allocation that combines the advantages of both approaches. For each customer segment, this method accounts for the so far neglected, but relevant, optimal call effort allocation between number of calls per account during a planning period and length of sales calls. A case study illustrates this method. Résumé Les méthodes de détermination de la taille et de l'allocation des efforts de vente vont des règles empiriques les plus simples aux procédures analytiques les plus complexes. Les premières sont faciles à comprendre et à appliquer, mais elles sont imprècises et souvent non valides. Les autres méthodes peuvent donner des résultats plus exacts, mais elles sont plus difficiles à expliquer aux managers et nécessitent souvent une collecte et une analyse de données fort laborieuses. Le présent article propose une méthode d'estimation optimale de la taille et de l'allocation des efforts de vente qui combine les avantages des deux approches. Pour chaque segment de la clientèle, la méthode rend compte de l'allocation optimale (souvent négligée, mais pertinente), de l'effort de vente entre le nombre de visites à faire à un client pendant une période de planification et la longueur des visites. Un cas concret illustre la méthode. [source]


    Critical Success Factors of CRM Technological Initiatives

    CANADIAN JOURNAL OF ADMINISTRATIVE SCIENCES, Issue 1 2003
    Anne-Marie Croteau
    As an increasing number of organizations realize the importance of becoming more customer-centric in today's competitive economy, they are also discovering that they must deliver authentic customer knowledge across multiple organizational functions and at all customer touch points. This paper compiles the critical success factors of customer relationship management (CRM) technological initiatives realized by 57 large organizations in Canada. The data analysis is performed using structural equation modeling techniques such as PLS. Résumé Évoluant dans une économie fort compétitive, un nombre croissant d'organisations réalisent l'importance de mieux comprendre leurs clients. Elles découvrent alors qu'elles peuvent gérer les connaissances acquises á leur sujet lors des contacts pris avec eux, et les intégrer adéquatement aux multiples fonctions organisationnelles. Cet article relate les facteurs critiques de succés nécessaires lors de l'implantation d'initiatives technologiques supportant la gestion de la relation client (GRC). L'analyse des résultats obtenus auprés de 57 grandes organisations canadiennes est réalisée en testant plusieurs équations structurelles à l'aide de la méthode des moindres carrés partiels (PLS). [source]


    Alberta Consumers' Valuation of Extrinsic and Intrinsic Red Meat Attributes: A Choice Experimental Approach

    CANADIAN JOURNAL OF AGRICULTURAL ECONOMICS, Issue 2 2010
    Bodo Steiner
    This paper analyzes Alberta consumers' perceptions toward extrinsic and intrinsic attributes of bison and beef steaks. In contrast to published Canadian consumer studies on bison meat that were undertaken prior to May 2003, before the first BSE case of Canadian origin was identified in beef cattle, this study provides a "post-BSE" assessment of consumer perceptions toward selected bison meat attributes. The results from an attribute-based choice experiment provide little support that simple traceability assurance schemes have value to consumers of bison and beef steaks, thus confirming similar findings of earlier beef studies that have employed different methodological approaches. The results also suggest that consumers are willing to pay significant premiums for bison steaks that are certified as being produced without genetically modified organisms, an attribute that has so far been unexplored in previous published bison studies. Le présent article analyse les perceptions des consommateurs de l'Alberta envers des attributs intrinsèques et extrinsèques du bifteck de b,uf et de bison. Contrairement aux études canadiennes sur la consommation de viande de bison publiées avant mai 2003, soit avant l'apparition du premier cas d'ESB dans un troupeau de bovins canadien, la présente étude livre une évaluation « post-ESB » des perceptions des consommateurs envers des attributs sélectionnés de la viande de bison. Les résultats obtenus à partir de la méthode des choix multi-attributs apportent peu d'appui à l'idée voulant que les mécanismes simples d'assurance de la traçabilité aient de la valeur pour les consommateurs de bifteck de bison et de b,uf, ce qui confirme les résultats similaires d'études antérieures sur le b,uf effectuées à l'aide de diverses approches méthodologiques. De plus, les résultats ont montré que les consommateurs sont prêts à payer un supplément appréciable pour du bifteck de bison certifié sans organisme génétiquement modifié (OGM), un attribut qui n'a pas été examiné dans les études sur le bison publiées antérieurement. [source]


    Regional Climate Change: Trend Analysis of Temperature and Precipitation Series at Selected Canadian Sites

    CANADIAN JOURNAL OF AGRICULTURAL ECONOMICS, Issue 1 2000
    J. Stephen Clark
    Global climate change does not necessarily imply that temperature or precipitation is increasing at specific locations. The hypothesis of increasing temperature and precipitation trends associated with global climate change is tested using actual annual temperature and precipitation data for nine selected weather stations, spatially distributed across Canada. Vogelsang's (1998) partial sum and Woodward et al's (1997) bootstrap methods are used for testing for trend. Both methods suggest no warming in the Canadian temperature series except for Toronto, Ontario, which had significant increase over time, along with Moncton, New Brunswick, and Indian Head, Saskatchewan, which had marginal increases. There is no evidence of increasing trend in precipitation except for Moncton, New Brunswick, which had a significantly increasing trend. Thus, public policies designed to address the regional effects of climate change need to be adapted for a particular ecological zone, based on knowledge of the climate trends for that region, rather than on general global climate change patterns. Les changements climatiques à l'échelle planétaire ne signifient pas nécessairement que la température et les précipitations sont en augmentation dans des emplacements donnés. Nous avons testé I'hypothèse d'une assoviation de la tendance à la hausse de la température et des précipitations avec les changements climatiques planétaires à partir des données réelles de température et de précipitations obtenues à 9 stations d'observation climatique réparties dans les diverses régions du Canada. Nous utilisons, pour cefaire, la méthode des sommes partielles de Vogelsang (1998) et celle de rééchantillonnage bootstrap de Woodward et al (1997). Les deux méthodes ne révèlent aucun réchauffement de la température dans les séries chronologiques, sauf pour Toronto, en Ontario, où l'on constate une hausse significative en fonction du temps, ainsi que pour Moncton au Nouveau-Brunswick et Indian Head en Saskatchewan qui marquent de très légères augmentations. Rien n'indique une tendance à la hausse des précipitations, sauf à Moncton où se dessine une tendance significative dans ce sens. Les programmes publics destinés à faire face aux effets régionaux du changement climatique doivent donc être adaptés à chaque zone écologique particulière, à partir d"observations faites dans la région même, plutôt que de la configuration du changement climatique à l'échelle planétaire. [source]


    Does the labour supply of wives respond to husbands' wages?

    CANADIAN JOURNAL OF ECONOMICS, Issue 4 2008
    Canadian evidence from micro data, grouped data
    Abstract., Using micro data and grouped data, we assess the extent to which Canadian wives adjusted their labour supply in response to changes in husbands' wages during the period 1980-2000. Grouped data parameters based on weighted least squares and the unbiased-error-in-variables estimator developed by Devereux (2004, 2007a,b) yield cross-wage elasticities that are substantially higher (in absolute value) than those derived from OLS regressions run on micro data. Both grouping estimators indicate that the labour supply of Canadian wives responded strongly to changes in husbands' wages during the 1980s. For the 1990s, our estimates of wives' cross-wage elasticity display greater dispersion. A l'aide de micro données et de données groupées, on établit jusqu'à quel point les épouses canadiennes ont ajusté leur offre de travail en réponse aux changements dans les salaires de leurs époux au cours de la période 1980,2000. Les paramètres (pour les données groupées) dérivés par la méthode des moindres carrés pondérés et de l'estimateur développé par Devereux (2004, 2007a,b) engendrent des élasticités croisées qui sont substantiellement plus grandes (en termes absolus) que ceux dérivés par la méthode des moindres carrés ordinaires en utilisant des micro données. Les deux estimations montrent que l'offre de travail des épouses canadiennes a répondu fortement aux changements dans les salaires des époux au cours des années 80. Pour les années 90, les évaluations des élasticités croisées des salaires montrent une plus grande dispersion. [source]


    Workplace risks and wages: Canadian evidence from alternative models

    CANADIAN JOURNAL OF ECONOMICS, Issue 2 2001
    Morley Gunderson
    Three alternative models of compensating wage premiums for risk are estimated: the conventional OLS wage regression; an endogenous risk model that accounts for the simultaneity that may occur if workers of high potential earnings prefer safer jobs; and a self-selection model to account for the possibility that workers sort into jobs based on unobserved tolerance for risk that affects their productivity in dangerous work environments. The results suggest that the existing Canadian estimates, which have been based on the basic model, may seriously underestimate the wage premium for risk and hence the implied cost of fatal and non-fatal injuries. JEL Classification: J28, J31 Risques au travail et salaires: résultats canadiens pour plusieurs modèles. Les auteurs calibrent trois modèles pour évaluer la compensation salariale pour les risques au travail: l'équation conventionnelle de régression des salaires estimée par la méthode des moindres carrés ordinaires; un modèle de risque endogène qui tient compte de la simultanéité qui peut se produire si les travailleurs dont les revenus potentiels sont élevés préfèrent les emplois où il y a moins de risques; un modèle d'auto-sélection où les travailleurs se répartissent entre les emplois sur la base d'une tolérance non-observée pour le risque qui affecte leur productivité dans des environnements de travail dangereux. Les résultats suggèrent que les évaluations canadiennes en vogue, qui sont fondées sur le modèle de base, peuvent sous-estimer sérieusement la prime salariale de risque et donc les coûts des blessures mortelles ou non que les accidents entraînent. [source]


    Union suppression and certification success

    CANADIAN JOURNAL OF ECONOMICS, Issue 2 2001
    Chris Riddell
    Over the past decade a number of provinces have abandoned the long-standing Canadian tradition of automatic certification of unions based on card-signing and instead opted for mandatory representation voting. This trend, however, has developed with little understanding of the effectiveness of management opposition within a voting regime. In this paper the impact of union suppression on union organizing success within the voting regime of British Columbia is examined. We find that union suppression tactics were highly effective with estimates rivalling those found in the United States. Moreover, results from instrumental variable models suggest that OLS estimates may seriously underestimate the true impact of suppression. Effort de suppression du syndicat et succès dans le processus de certification. Au cours de la dernière décennie, un certain nombre de provinces canadiennes ont abandonné la pratique traditionnelle de certification automatique des syndicats sur la base des signatures de cartes d'adhésion au syndicat, et ont choisi de réclamer un scrutin pour déterminer le support des membres potentiels. On ne comprend pas bien l'efficacité de l'action d'opposition des patrons au syndicat dans ce régime de scrutin. Ce mémoire examine l'impact des efforts de suppression des syndicats sur les succès des syndicats dans leurs efforts d'organisation dans le cadre du régime de scrutin en Colombie Britannique. On découvre que ces tactiques ont été très efficaces, tout autant qu'aux Etats-Unis. De plus, les résultats obtenus à l'aide de modèles de variables instrumentales montrent que ceux qu'on obtient à l'aide de la méthode des moindres carrés ordinaires peuvent sous-évaluer l'impact des tactiques de suppression de manière significative. [source]