Jacques-André Landry
RechercheProjetsCurriculum vitaeCoursAccueil  

Certains projets en cour:


Les paragraphes suivants présentent brièvement certains projets de recherche qui sont présentement actifs sous ma supervision.

Applications de la théorie de la complexité à la modélisation des systèmes environnementaux  : Développement d'un modèle multi-agent pour faciliter la gestion durable du trafic maritime dans le Parc marin Saguenay-Saint-Laurent et la Zone de protection marine du St. Laurent, Québec. (Clément Chion et Philippe Lamontagne) 
Projet en collaboration avec Parcs Canada, Pêche et Océans, le Groupe de recherche et d'éducation sur les mammifères marins (GREMM), l'Université de Montreal et l'Université de Calgary. L'objectif est le développement d'un modèle multi-agent de l'ensemble du trafic maritime (bateaux d'observation de baleines, plaisanciers, trafic commercial, kayaks, etc.) et des mammifères marins dans le parc marin Saguenay-St. Laurent et la zone de protection marine du St. Laurent afin d'investiguer l'effet de divers scénarios de gestion du territoire sur les patrons spatiotemporels de la circulation. Sk. Morshed Anwar (3e cycle), Clément Chion (3e cycle), Christiane Albuquerque (3e cycle) et Cédric Jeanneret (2e cycle) travaillent actuellement sur ce projet.
 
Caractérisation de la complexité écologique - Recherche d’une relation entre la complexité et l’intégrité écologique des écosystèmes de récifs coralliens. (Jonathan Bouchard)
Plus d'information sur ce projet ICI
Cette recherche s’intéresse à l’application et au développement de mesures de la complexité permettant de classifier les signatures spatiale, temporelle ou structurelle d’un écosystème. Les systèmes complexes possèdent des signatures qui se situent entre les deux extrêmes que sont l’ordre (équivalent à un patron spatial uniforme ou à un équilibre temporel) et le désordre (équivalent à une distribution spatiale aléatoire ou à du bruit blanc), et exhibent un équilibre entre la régularité sous-jacente et l’imprévisibilité totale (chaos). La caractérisation de cette classe de structures et de dynamiques représente un des défis importants dans le domaine de la recherche en complexité écologique. Le développement de telles mesures permettrait idéalement aux écologistes et aux gestionnaires d’écosystèmes de faire le suivi et la caractérisation de l’intégrité écologique de différents sites. Ce projet est en collaboration entre le « Marine Science Institute », Université des Philippines; le « Coral Reef Ecology Working Group », Ludwig-Maximilians Universität, Munich; le « Munich Systems Biology Network »; le « Laboratoire de systèmes complexes », Université de Montréal; et le « Laboratoire d’imagerie, de vision et d’intelligence artificielle », École de technologie supérieure. Nous sommes intéressés par l’application de mesures spatiotemporelles de la complexité à des séries spatio-temporelles d’images (photos) d’écosystèmes de récifs coralliens dans le dessein d’évaluer leur intégrité écologique.
 
TECHNIQUES DE L’INTELLIGENCE ARTIFICIELLE POUR LA RECONNAISSANCE D’OBJETS BIOLOGIQUES DANS DES IMAGES BIDIMENSIONNELLES. (Yan Levasseur)
La reconnaissance visuelle d’objets biologiques comme les produits agro-alimentaires et les espèces végétales en milieu naturel a profité de percées majeures lors des 30 dernières années. Aujourd’hui, des algorithmes de reconnaissance performants sont utilisés pour évaluer la qualité de productions agricoles et faire le suivi d’écosystème pour en assurer la protection. Dans la plupart des cas, ce sont des experts en vision et en informatique qui ont développé les solutions personnalisées qui ont permis d’atteindre les résultats désirés. L’objectif de la recherche présentée est de fournir des recommandations pour le développement d’un algorithme de reconnaissance de formes dans des images qui soit générique et qui nécessite le moins d’intervention humaine possible. Un tel algorithme pourrait être utilisé par les non experts, par exemple les ingénieurs en agro-alimentaire, les botanistes et les biologistes. Pour atteindre notre objectif, nous avons étudié les étapes du processus de reconnaissance à partir d’images. En pratique, nous avons mis sur pied un système de segmentation, d’extraction de caractéristiques et de classification, en plus d’avoir développé un algorithme de Programmation Génétique (PG). Nous avons intégré ce dernier au logiciel libre d’exploration des données Weka, afin d’encourager la mise en commun des efforts de recherche sur les algorithmes évolutionnaires.  Les classificateurs utilisés pour nos expérimentations sont le classificateur naïf de Bayes, l’arbre de décision C4.5, le K Plus Proche Voisins (KPPV), la PG, le Séparateur à Vastes Marges (SVM) et le Perceptron Multicouche (PM). Dans une seconde série d’expériences, nous avons combiné tous les classificateurs à l’exception du KPPV à l’aide du méta algorithme de boosting.  Nous avons comparé les résultats de classification des six algorithmes choisis pour six bases de données distinctes dont trois ont été créées par nous. Les bases utilisées proviennent d’images de céréales, de grains de pollen, de nœuds de bois, de raisins secs, de feuilles et de caractères.  Après avoir segmenté les bases d’images, nous avons extrait, à partir de chaque objet, une quarantaine de caractéristiques. Nous les avons ensuite transformées par une Analyse en Composante Principale (ACP). Finalement, nous avons compilés les résultats de classification des six classificateurs, puis de leur combinaison par boosting pour les VI caractéristiques de base et pour les caractéristiques transformées. Chaque expérience a été réalisée 50 fois avec une séparation aléatoire des bases d’apprentissage et de test.  Nous avons observé de bonnes performances de classification pour les problèmes comportant un grand nombre d’échantillons d’apprentissage. L’ordre des classificateurs, selon leur taux d’erreur médian, est consistant pour la plupart des bases de données. Le PM et le SVM obtiennent généralement les meilleurs taux de classification. Pour les problèmes comportant un grand nombre d’échantillons, notre système obtient des résultats encourageants.  Malgré la supériorité apparente de certains classificateurs, nos expérimentations ne nous permettent pas d’émettre une recommandation sur l’utilisation prioritaire d’un classificateur dans tous les cas. Nous suggérons plutôt l’utilisation d’une métaheuristique évolutive pour l’analyse des données d’un problème afin de choisir ou de combiner des classificateurs appropriés. Nous avançons également que la performance de classification de notre système pourrait être améliorée par l’ajout de nouvelles caractéristiques pertinentes, puis par l’optimisation des paramètres des classificateurs en fonction des données.

RECONSTRUCTION DE MODÈLES 3D À PARTIR D’INFORMATION 2D PARTIELLE: APPLICATION AU CAS D’UNE PLANTE. (Luis Eduardo Da Costa)
L’analyse de champs cultivés en utilisant des méthodes de télédétection rapprochée a dé- montré être la meilleure méthode pour détecter des désordres physiologiques dans les plantes de ces champs. Pour faire ce type d’analyse, il est important de pouvoir manipuler virtuellement ces plantes à l’aide de modèles informatiques les représentant fidèlement ; dans cette thèse, je propose une méthode (allant de la définition d’un formalisme jusqu’au design et test d’un algorithme) pour générer ces modèles à partir de photographies 2D prises du champ. Le formalisme choisi comme base pour la représentation de plantes s’appelle Systèmes de Lindenmayer (L-Systems) ; les L-Systems sont des systèmes grammaticaux contrôlés par une condition initiale et une ou plusieurs règles de réécriture, et l’itération répétée d’un L- System produit souvent un comportement émergent intéressant. Cependant, il est difficile de découvrir les règles qui produisent un comportement souhaité dans ce formalisme ; ce problème est appelé le « problème inverse pour les systèmes de Lindenmayer ». Générer un modèle informatique d’une plante est équivalent à résoudre le problème inverse pour un sous-type de ce formalisme, appelé « L-Systems à crochets » ; ce travail démontre la possibilité de résoudre le problème inverse pour des systèmes de Lindenmayer à crochets en utilisant un algorithme évolutif. Une description détaillée de l’algorithme, ainsi que la justification du design choisi, sont présentées ; un ensemble d’expériences, choisies pour faire le test de l’adéquation de la méthode, démontre que l’algorithme explore de manière satisfaisante l’espace de solu- tions candidates, et que les approximations qu’il propose sont adéquates dans la majorité des cas. Ses limitations et faiblesses sont aussi rapportées et sont ensuite discutées ; une réflexion sur la recherche future complète ce document.


CONSTRUCTION DE CARACTÉRISTIQUES PAR PROGRAMMATION GÉNÉTIQUE POUR UN SYSTÈME DE RECONNAISSANCE MULTICLASSE (Brice Bourgoin)
L’objectif de la recherche présentée est d’optimiser la reconnaissance automatisée d’objets en vision ou en télédétection. Nous partons du constat que les classificateurs sont sensibles à l’espace de représentation des données et qu’un remaniement de cet espace pourrait aider certains d’entre eux. Nous avons poursuivi deux objectifs : avoir un concept de système qui nécessite le moins possible d’interventions humaines lors de sa mise en place et minimiser le taux d’erreurs absolu.  Pour cela, nous avons utilisé un algorithme de Programmation Génétique avec coévolution. Son objectif a été de construire un nouvel ensemble de caractéristiques en se basant sur son potentiel de classification selon les plus proches voisins. Ensuite ce jeu de caractéristiques a été testé sur plusieurs types de classificateurs : plus proches voisins, réseaux de neurones artificiels et machines à vecteurs de support.  Nous avons préféré restreindre la Programmation Génétique au remaniement de l’espace de représentation plutôt que d’en faire un classificateur complet afin de mieux cibler sa recherche. Nous avons ainsi espéré profiter de la force de classificateurs avancés tels que les machines à vecteurs de support pour éviter que la Programmation Génétique ne réinvente ce que nous savons déjà faire. Elle a eu pour seul objectif de se concentrer sur ce qui est parfois une faiblesse dans un système de classification : la représentation des données.  Nous avons utilisé deux bases de données totalement distinctes : la première concernant des chiffres manuscrits, la seconde la différentiation de céréales telles que l’orge, le blé ou l’avoine. La première base comporte dix classes, la seconde sept. Ce sont donc des problèmes réels de vision largement multiclasses. En plus de confirmer les résultats, l’intérêt de l’utilisation de deux bases a été de mettre en évidence le peu d’interventions humaines nécessaires pour mettre en place notre système. En effet, pour la seconde base, nous avons utilisé exactement les mêmes paramètres que ceux choisis pour la première : ces paramètres internes de notre algorithme se veulent donc assez universels.  Après de nombreuses simulations, nous avons observé de bonnes performances sur les nouveaux espaces de représentation quel que soit le classificateur final utilisé. En cela, la robustesse de notre système vis-à-vis de l’espace de représentation semble avoir été améliorée par rapport à l’utilisation d’un classificateur seul. Ainsi, nous avons conforté l’objectif du peu d’interventions nécessaire pour la mise en place du système.  Aussi, les performances absolues semblent avoir été améliorées, en particulier avec l’usage d’une machine à vecteurs de support en aval. Cette amélioration n’a cependant par toujours été énorme, mais a semblée suffisamment prometteuse pour envisager de pousser notre investigation plus loin. En effet, notre approche offre encore de nombreuses voies de perfectionnement, en grande partie grâce aux nombreuses extensions possibles des algorithmes à base de Programmation Génétiques.

PROGRAMMATION GÉNÉTIQUE APPLIQUÉE À L’IMAGERIE HYPERSPECTRALE POUR L’ÉVALUATION D’UNE VARIABLE BIOPHYSIQUE AU SEIN D’UNE GRANDE CULTURE : CAS DE L’AZOTE DANS UN CHAMP DE MAÏS. (Clément Chion)
Un enjeu majeur de la télédétection est l’extraction d’information pertinente contenue dans les données. Le récent développement de l’imagerie hyperspectrale a fait exploser le volume de données à explorer et par conséquent, de nouvelles techniques d’analyse sont requises. En agriculture de précision, l’avènement et la démocratisation des technologies d’acquisition de mesures spectrales multibandes laisse entrevoir de grands espoirs dans l’optique d’une gestion plus raisonnée des ressources. En effet, les propriétés spectrales des plantes et de leurs composants étant largement étudiées, l’extension des connaissances de l’échelle de la plante à celle de la canopée semble prometteuse. Toutefois, des facteurs tels que l’irradiance, l’humidité de l’air ou encore l’ « impureté » des pixels compliquent le transfert des connaissances lors du changement d’échelle. Pour remédier à ces problèmes, des indices de végétation (IV), définis par des combinaisons arithmétiques de bandes spectrales, ont été développés afin d’isoler des variables biophysiques de la canopée. Dans notre étude, nous cherchons un IV corrélé à la variabilité en azote d’un champ de maïs, au moyen d’un algorithme basé sur la programmation génétique entraîné sur des mesures prises en champ. Par cette technique, nous avons déterminé un modèle qui prédit la quantité d’azote dans le champ avec R² = 84.83% et ce avec une erreur relative RMSE = 14.34%. Ce résultat obtenu sur nos données est meilleur que ceux des indices et modèles de la littérature; la meilleure performance étant celle d’un modèle de Hansen et al. prédisant l’azote avec R² = 70.23% et une erreur RMSE = 18.03%. L’analyse d’un potentiel transfert technologique conduit à un autre résultat majeur : la précision du modèle descriptif de la variable biophysique dépend moins de la taille de l’ensemble de données d’apprentissage que de la précision de celles-ci. Il semble que l’on ne soit pas encore en mesure de trouver des modèles généraux indépendants des facteurs externes. En attendant, à l’aide d’algorithmes de recherche, l’investigation de données hyperspectrales couplées à des mesures in situ permet de contourner ce problème en gardant un niveau de performance élevé.

ANALYSE EN COMPOSANTES INDÉPENDANTES POUR LA CARACTÉRISATION D’IMAGES HYPERSPECTRALES EN TÉLÉDÉTECTION. (Cyril Viron)
En réponse partielle aux problèmes écologiques actuels, l’imagerie hyperspectrale am- bitionne de connaître la composition locale d’une parcelle agraire. Pour ce faire, on re- cherche sa signature spectrale car celle-ci caractérise de façon unique un élément. Ce- pendant, la signature d’une parcelle s’avère être un mélange pondéré des éléments s’y trouvant; nous souhaitons récupérer leurs signatures à partir du mélange : l’analyse en composantes indépendantes (ACI) le permet ! Malgré le nombre restreint de travaux sur l’ACI en hyperspectral, devant sa popularité en traitement de signal, nous l’avons appli- quée en utilisant l’algorithme FastICA, méthode la plus récente et efficace, d’abord sur des images en niveaux de gris et des signaux temporels classiques (pour constater son effi- cacité) et enfin sur une base de signatures étalons. Le but est de comparer les composantes indépendantes à une base référencée pour alors former les paires les plus ressemblantes. Cependant, du fait des ambiguïtés et d’absence de critère de validité de l’ACI, il est impos- sible de prédire ni vérifier les paires. Pour y remédier, nous avons divisé notre protocole expérimental entre comparaisons théorique et pratique, qui, basées sur des niveaux de confiance, permettent de former les paires théoriquement justes d’une part (base partielle) et expérimentales d’autre part (base totale) qui, comparées, déterminent le succès d’as- sociation. Globalement, les résultats, assujettis à deux seuils de confiance relatifs, sont excellents pour les signaux, bons pour les images mais seulement acceptables pour les signatures. La raison principale est un effet beaucoup plus visible en ce cas des deux pro- blèmes généraux constatés : subjectivité de la prise de décision, décorrélation inévitable entraînant déformations et une trop grande dépendance à la base. Pour tenter de le réduire, des recommandations constructives ont été proposées, afin de poser le deuxième échelon de ce travail, qui se voulait novateur.

DÉTERMINATION DE LA MATURIITÉ DES AVOCATS HASS PAR IMAGERIE HYPERSPECTRALE. (Denis Girod)
La maturité de l’avocat est établie habituellement en mesurant son contenu en matière sèche, un processus long et destructif. Le but de cette étude est d’introduire une technique rapide et non destructrice pour estimer le taux de matière sèche de ce fruit tropical.  Des avocats de la variété « Hass » à différents stades de maturité et différentes couleurs de peau on été analysés par imagerie hyperspectrale en mode réflectance et absorbance. La plage des taux de matière sèche s’étend de 19.8% à 42.5%. Les données hyperspectrales consistent en des spectres moyennés d’une zone du fruit acquis dans le visible et proche infrarouge (de 400nm à 1000nm), pour un total de 163 bandes spectrales distinctes.  La relation entre les spectres et les taux de matière sèche a été établie grâce à des techniques d’analyse chimiométrique, notamment la régression des moindres carrés partiels (PLS). Les statistiques de calibration et validation comme le coefficient de détermination (R²), et l’erreur quadratique moyenne de prédiction (RMSEP) ont été utilisés afin de comparer les capacités de prédiction des différents modèles. Les résultats des modélisations PLS portant sur plusieurs randomisations de la base de données, en utilisant le spectre dans son ensemble, donnent un R² de 0.86 avec une erreur moyenne RMSEP de 2.45 en mode réflectance, ainsi qu’un R² moyen de 0.94 avec une erreur RMSEP moyenne de 1.59 pour le mode absorbance. Cela indique que des modèles raisonnablement précis (R²>0.8) peuvent être obtenus pour l’évaluation du taux de matière sèche avec le spectre dans son entier.  Cette étude montre également que les concepts de réduction de bandes spectrales peuvent être appliqués à ce sujet. Partant de 163 bandes spectrales, le taux de matière sèche a pu être prédit avec les mêmes performances en utilisant 10% des bandes initiales (16 bandes).  Par conséquent cette étude démontre la faisabilité d’utiliser l’imagerie hyperspectrale dans le domaine du visible et proche infrarouge en mode absorbance, dans le but de déterminer des propriétés physicochimiques, le taux de matière sèche dans notre étude, des avocats Hass de manière non destructive. En outre, cette étude donne des indices permettant de déterminer quelles bandes spectrales semblent être pertinentes à cette fin.

DÉNOMBREMENT DE CELLULES VÉGÉTALES PAR VISION ARTIFICIELLE (Dominic Moreau)
Compter des cellules de plantes en suspension n’est pas un domaine très exploré. Les cellules sont très complexes, ces cellules sont encore comptées à la main. Le but de ce projet est de compter des cellules végétales d’Eschscholtzia californica cultivées en bioréacteur. Les cellules sont comptées dans des échantillons de suspension liquide pour en évaluer la concentration.  Tout au long de cette recherche, trois problèmes ont été identifiés et on dû être résolus, soit le manque de caractéristiques distinctives, la segmentation des objets et l’estimation du nombre de cellules dans un amas.  Le manque de caractéristiques est propre aux cellules végétales en suspension. L’utilisation de plusieurs opérateurs combinés a permit de reconnaitre les cellules isolées. Afin de rendre la segmentation robuste, l’arrière-plan est extrait à l’aide de dix photos disponibles et est ensuite soustrait de l’image à traiter. Les amas présentent un problème important. Prendre des images et ensuite compter les cellules de façon exacte s’est avéré très difficile. L’hypothèse fut posée que l’estimation de cinq chercheurs expérimentés servirait de référence. L’estimation du nombre de cellules dans les amas est estimée par volume. L’utilisation de la révolution de solide permet d’extraire la troisième dimension des amas. Ce volume est ensuite divisé par le volume d’une cellule libre qui est estimé comme étant un ovoïde.  Les résultats se rapprochent des comptes de chercheurs expérimentés avec une erreur moyenne de l’ordre de 12 à 15 pourcent et apportent une constance dans les évaluations des taux de croissances. Afin d’augmenter la précision, plusieurs recommandations simples telle la recherche de nouveaux critères et l’amélioration du matériel peuvent être suivies. En attendant, une interface interactive peut être utilisée pour contrer le manque de robustesse de l’outil développé.

INVESTIGATION D’UNE NOUVELLE STRATÉGIE DE CONTRÔLE ENVIRONNEMENTAL POUR BÂTIMENT AVICOLE (François Lachance)
Le principal objectif de ce mémoire est de développer une méthode permettant d’évaluer objectivement le confort du poulet dans un bâtiment avicole commercial. À partir de cet indice, les lignes directrices d’une nouvelle stratégie de contrôle environnemental pour bâtiment avicole sont proposées. La revue de littérature présentée fait une synthèse de la notion de confort animal et évalue en détail les différents facteurs influençant le confort animal. Effectué en partenariat avec la compagnie Excel Technologies, ce projet présente un modèle mathématique permettant de calculer la production de chaleur et d’humidité des poulets en continu dans un bâtiment avicole. À l’aide des équipements disponibles sur le marché, il a été possible de récolter 40 jours de données en continu pour valider ce modèle. Les données ont été recueillies dans un bâtiment avicole commercial dans la région de Lanaudière au Québec à l’aide d’un contrôleur Momentum. Les modèles d’échanges thermiques et d’humidité permettent de calculer les chaleurs totale, latente et sensible produites par les poulets. Avec les données amassées, il a été possible d’étudier l’effet de la température, de l’humidité relative, de la vitesse de l’air et de l’intensité lumineuse sur la production de chaleurs totale, latente et sensible. Suite à ce projet, une méthodologie permettant de développer un modèle mathématique pour évaluer le débit de ventilation avec précision est proposé ainsi qu’une démarche expérimentale pour évaluer les résistances thermiques équivalentes les différentes surfaces d’un bâtiment avicole. Finalement, les bases d’une nouvelle stratégie de contrôle environnemental sont proposées pour parvenir à un meilleur contrôle de l’environnement de production à l’intérieur des bâtiments avicoles commerciaux québécois. L’utilisation des concepts d’intelligence artificielle pourrait s’avérer prometteuse lors du développement d’une stratégie de contrôle basée sur le confort animal.


Projet en collaboration avec l'industrie - Projet S3I (Station d'inspection industrielle intelligente)
Ce projet, financé en partie par le Programme Alliance Precarn-CRIM, visait le développement d'une station d'inspection visuelle pour les petits objets de plastique. Le maître d'oeuvre était la firme I.C. Vision de Montréal. L'équipe était formée de 3 partenaires: IC. Vision (Serge Lévesque), le CRIM (Langis Gagnon) et le Département de Génie de la production automatisée de l'École de technologie supérieure (Jacques-André Landry), pour le perfertionnement du module d'acquisition et de traitement des images. (Voir la video)