Certains projets en cour:
Les paragraphes suivants présentent brièvement certains projets de recherche qui sont présentement actifs sous ma supervision.
Applications
de la théorie de la complexité à la modélisation des systèmes
environnementaux : Développement d'un modèle multi-agent pour
faciliter la gestion durable du trafic maritime dans le Parc marin
Saguenay-Saint-Laurent et la Zone de protection marine du St. Laurent,
Québec. (Clément Chion et Philippe Lamontagne)
Projet en
collaboration avec Parcs Canada, Pêche et Océans, le Groupe de
recherche et d'éducation sur les mammifères marins (GREMM),
l'Université de Montreal et l'Université de Calgary. L'objectif est le
développement d'un modèle multi-agent de l'ensemble du trafic maritime
(bateaux d'observation de baleines, plaisanciers, trafic commercial,
kayaks, etc.) et des mammifères marins dans le parc marin Saguenay-St.
Laurent et la zone de protection marine du St. Laurent afin
d'investiguer l'effet de divers scénarios de gestion du territoire sur
les patrons spatiotemporels de la circulation. Sk. Morshed Anwar (3e
cycle), Clément Chion (3e cycle), Christiane Albuquerque (3e cycle) et
Cédric Jeanneret (2e cycle) travaillent actuellement sur ce projet.
Caractérisation de la complexité écologique -
Recherche d’une relation entre la complexité et l’intégrité écologique
des écosystèmes de récifs coralliens. (Jonathan Bouchard)
Plus
d'information sur ce projet ICICette
recherche s’intéresse à l’application et au développement de mesures de
la complexité permettant de classifier les signatures spatiale,
temporelle ou structurelle d’un écosystème. Les systèmes complexes
possèdent des signatures qui se situent entre les deux extrêmes que
sont l’ordre (équivalent à un patron spatial uniforme ou à un équilibre
temporel) et le désordre (équivalent à une distribution spatiale
aléatoire ou à du bruit blanc), et exhibent un équilibre entre la
régularité sous-jacente et l’imprévisibilité totale (chaos). La
caractérisation de cette classe de structures et de dynamiques
représente un des défis importants dans le domaine de la recherche en
complexité écologique. Le développement de telles mesures permettrait
idéalement aux écologistes et aux gestionnaires d’écosystèmes de faire
le suivi et la caractérisation de l’intégrité écologique de différents
sites. Ce projet est en collaboration entre le « Marine Science
Institute », Université des Philippines; le « Coral Reef Ecology
Working Group », Ludwig-Maximilians Universität, Munich; le « Munich
Systems Biology Network »; le « Laboratoire de systèmes complexes »,
Université de Montréal; et le « Laboratoire d’imagerie, de vision et
d’intelligence artificielle », École de technologie supérieure. Nous
sommes intéressés par l’application de mesures spatiotemporelles de la
complexité à des séries spatio-temporelles d’images (photos)
d’écosystèmes de récifs coralliens dans le dessein d’évaluer leur
intégrité écologique.
TECHNIQUES DE
L’INTELLIGENCE ARTIFICIELLE POUR LA RECONNAISSANCE D’OBJETS BIOLOGIQUES
DANS DES IMAGES BIDIMENSIONNELLES. (Yan Levasseur)
La reconnaissance visuelle d’objets
biologiques comme les produits agro-alimentaires et les espèces
végétales en milieu naturel a profité de percées majeures lors des 30
dernières années. Aujourd’hui, des algorithmes de reconnaissance
performants sont utilisés pour évaluer la qualité de productions
agricoles et faire le suivi d’écosystème pour en assurer la protection.
Dans la plupart des cas, ce sont des experts en vision et en
informatique qui ont développé les solutions personnalisées qui ont
permis d’atteindre les résultats désirés. L’objectif de la recherche présentée est de fournir des
recommandations pour le développement d’un algorithme de reconnaissance
de formes dans des images qui soit générique et qui nécessite le moins
d’intervention humaine possible. Un tel algorithme pourrait être utilisé
par les non experts, par exemple les ingénieurs en agro-alimentaire, les
botanistes et les biologistes. Pour atteindre notre objectif, nous avons
étudié les étapes du processus de reconnaissance à partir d’images. En pratique, nous avons mis sur pied un système de segmentation,
d’extraction de caractéristiques et de classification, en plus d’avoir
développé un algorithme de Programmation Génétique (PG). Nous avons
intégré ce dernier au logiciel libre d’exploration des données Weka,
afin d’encourager la mise en commun des efforts de recherche sur les
algorithmes évolutionnaires. Les classificateurs utilisés pour nos expérimentations sont le
classificateur naïf de Bayes, l’arbre de décision C4.5, le K Plus Proche
Voisins (KPPV), la PG, le Séparateur à Vastes Marges (SVM) et le
Perceptron Multicouche (PM). Dans une seconde série d’expériences, nous
avons combiné tous les classificateurs à l’exception du KPPV à l’aide du
méta algorithme de boosting. Nous avons comparé les résultats de classification des six
algorithmes choisis pour six bases de données distinctes dont trois ont
été créées par nous. Les bases utilisées proviennent d’images de
céréales, de grains de pollen, de nœuds de bois, de raisins secs, de
feuilles et de caractères. Après avoir segmenté les bases d’images, nous avons extrait, à partir
de chaque objet, une quarantaine de caractéristiques. Nous les avons
ensuite transformées par une Analyse en Composante Principale (ACP).
Finalement, nous avons compilés les résultats de classification des six
classificateurs, puis de leur combinaison par boosting pour les VI
caractéristiques de base et pour les caractéristiques transformées.
Chaque expérience a été réalisée 50 fois avec une séparation aléatoire
des bases d’apprentissage et de test. Nous avons observé de bonnes performances de classification pour les
problèmes comportant un grand nombre d’échantillons d’apprentissage.
L’ordre des classificateurs, selon leur taux d’erreur médian, est
consistant pour la plupart des bases de données. Le PM et le SVM
obtiennent généralement les meilleurs taux de classification. Pour les
problèmes comportant un grand nombre d’échantillons, notre système
obtient des résultats encourageants. Malgré la supériorité apparente de certains classificateurs, nos
expérimentations ne nous permettent pas d’émettre une recommandation sur
l’utilisation prioritaire d’un classificateur dans tous les cas. Nous
suggérons plutôt l’utilisation d’une métaheuristique évolutive pour
l’analyse des données d’un problème afin de choisir ou de combiner des
classificateurs appropriés. Nous avançons également que la performance
de classification de notre système pourrait être améliorée par l’ajout
de nouvelles caractéristiques pertinentes, puis par l’optimisation des
paramètres des classificateurs en fonction des données.
RECONSTRUCTION DE MODÈLES 3D À PARTIR D’INFORMATION 2D PARTIELLE:
APPLICATION AU CAS D’UNE PLANTE. (Luis Eduardo Da Costa) L’analyse de champs cultivés en utilisant des méthodes de télédétection
rapprochée a dé- montré être la meilleure méthode pour détecter des
désordres physiologiques dans les plantes de ces champs. Pour faire ce
type d’analyse, il est important de pouvoir manipuler virtuellement ces
plantes à l’aide de modèles informatiques les représentant fidèlement ;
dans cette thèse, je propose une méthode (allant de la définition d’un
formalisme jusqu’au design et test d’un algorithme) pour générer ces
modèles à partir de photographies 2D prises du champ. Le formalisme
choisi comme base pour la représentation de plantes s’appelle Systèmes
de Lindenmayer (L-Systems) ; les L-Systems sont des systèmes
grammaticaux contrôlés par une condition initiale et une ou plusieurs
règles de réécriture, et l’itération répétée d’un L- System produit
souvent un comportement émergent intéressant. Cependant, il est difficile
de découvrir les règles qui produisent un comportement souhaité dans ce
formalisme ; ce problème est appelé le « problème inverse pour les
systèmes de Lindenmayer ». Générer un modèle informatique d’une plante
est équivalent à résoudre le problème inverse pour un sous-type de ce
formalisme, appelé « L-Systems à crochets » ; ce travail démontre la
possibilité de résoudre le problème inverse pour des systèmes de
Lindenmayer à crochets en utilisant un algorithme évolutif. Une
description détaillée de l’algorithme, ainsi que la justification du
design choisi, sont présentées ; un ensemble d’expériences, choisies
pour faire le test de l’adéquation de la méthode, démontre que
l’algorithme explore de manière satisfaisante l’espace de solu- tions
candidates, et que les approximations qu’il propose sont adéquates dans
la majorité des cas. Ses limitations et faiblesses sont aussi rapportées
et sont ensuite discutées ; une réflexion sur la recherche future
complète ce document.
CONSTRUCTION
DE CARACTÉRISTIQUES PAR PROGRAMMATION GÉNÉTIQUE POUR UN SYSTÈME DE
RECONNAISSANCE MULTICLASSE (Brice Bourgoin)
L’objectif de la recherche présentée est d’optimiser la reconnaissance
automatisée d’objets en vision ou en télédétection. Nous partons du
constat que les classificateurs sont sensibles à l’espace de
représentation des données et qu’un remaniement de cet espace pourrait
aider certains d’entre eux. Nous avons poursuivi deux objectifs : avoir
un concept de système qui nécessite le moins possible d’interventions
humaines lors de sa mise en place et minimiser le taux d’erreurs absolu. Pour cela, nous avons utilisé un algorithme de Programmation
Génétique avec coévolution. Son objectif a été de construire un nouvel
ensemble de caractéristiques en se basant sur son potentiel de
classification selon les plus proches voisins. Ensuite ce jeu de
caractéristiques a été testé sur plusieurs types de classificateurs :
plus proches voisins, réseaux de neurones artificiels et machines à
vecteurs de support. Nous avons préféré restreindre la Programmation Génétique au
remaniement de l’espace de représentation plutôt que d’en faire un
classificateur complet afin de mieux cibler sa recherche. Nous avons
ainsi espéré profiter de la force de classificateurs avancés tels que
les machines à vecteurs de support pour éviter que la Programmation
Génétique ne réinvente ce que nous savons déjà faire. Elle a eu pour
seul objectif de se concentrer sur ce qui est parfois une faiblesse dans
un système de classification : la représentation des données. Nous avons utilisé deux bases de données totalement distinctes : la
première concernant des chiffres manuscrits, la seconde la
différentiation de céréales telles que l’orge, le blé ou l’avoine. La
première base comporte dix classes, la seconde sept. Ce sont donc des
problèmes réels de vision largement multiclasses. En plus de confirmer
les résultats, l’intérêt de l’utilisation de deux bases a été de mettre
en évidence le peu d’interventions humaines nécessaires pour mettre en
place notre système. En effet, pour la seconde base, nous avons utilisé
exactement les mêmes paramètres que ceux choisis pour la première : ces
paramètres internes de notre algorithme se veulent donc assez universels. Après de nombreuses simulations, nous avons observé de bonnes
performances sur les nouveaux espaces de représentation quel que soit le
classificateur final utilisé. En cela, la robustesse de notre système
vis-à-vis de l’espace de représentation semble avoir été améliorée par
rapport à l’utilisation d’un classificateur seul. Ainsi, nous avons
conforté l’objectif du peu d’interventions nécessaire pour la mise en
place du système. Aussi, les performances absolues semblent avoir été améliorées, en
particulier avec l’usage d’une machine à vecteurs de support en aval.
Cette amélioration n’a cependant par toujours été énorme, mais a semblée
suffisamment prometteuse pour envisager de pousser notre investigation
plus loin. En effet, notre approche offre encore de nombreuses voies de
perfectionnement, en grande partie grâce aux nombreuses extensions
possibles des algorithmes à base de Programmation Génétiques.
PROGRAMMATION GÉNÉTIQUE APPLIQUÉE À
L’IMAGERIE HYPERSPECTRALE POUR L’ÉVALUATION D’UNE VARIABLE BIOPHYSIQUE
AU SEIN D’UNE GRANDE CULTURE : CAS DE L’AZOTE DANS UN CHAMP DE MAÏS. (Clément
Chion) Un enjeu majeur de la télédétection est
l’extraction d’information pertinente contenue dans les données. Le
récent développement de l’imagerie hyperspectrale a fait exploser le
volume de données à explorer et par conséquent, de nouvelles techniques
d’analyse sont requises. En agriculture de précision, l’avènement et la
démocratisation des technologies d’acquisition de mesures spectrales
multibandes laisse entrevoir de grands espoirs dans l’optique d’une
gestion plus raisonnée des ressources. En effet, les propriétés
spectrales des plantes et de leurs composants étant largement étudiées,
l’extension des connaissances de l’échelle de la plante à celle de la
canopée semble prometteuse. Toutefois, des facteurs tels que
l’irradiance, l’humidité de l’air ou encore l’ « impureté » des pixels
compliquent le transfert des connaissances lors du changement d’échelle.
Pour remédier à ces problèmes, des indices de végétation (IV), définis
par des combinaisons arithmétiques de bandes spectrales, ont été
développés afin d’isoler des variables biophysiques de la canopée. Dans
notre étude, nous cherchons un IV corrélé à la variabilité en azote d’un
champ de maïs, au moyen d’un algorithme basé sur la programmation
génétique entraîné sur des mesures prises en champ. Par cette technique,
nous avons déterminé un modèle qui prédit la quantité d’azote dans le
champ avec R² = 84.83% et ce avec une erreur relative RMSE = 14.34%. Ce
résultat obtenu sur nos données est meilleur que ceux des indices et
modèles de la littérature; la meilleure performance étant celle d’un
modèle de Hansen et al. prédisant l’azote avec R² = 70.23% et une erreur
RMSE = 18.03%. L’analyse d’un potentiel transfert technologique conduit
à un autre résultat majeur : la précision du modèle descriptif de la
variable biophysique dépend moins de la taille de l’ensemble de données
d’apprentissage que de la précision de celles-ci. Il semble que l’on ne
soit pas encore en mesure de trouver des modèles généraux indépendants
des facteurs externes. En attendant, à l’aide d’algorithmes de recherche,
l’investigation de données hyperspectrales couplées à des mesures in
situ permet de contourner ce problème en gardant un niveau de
performance élevé.
ANALYSE EN COMPOSANTES INDÉPENDANTES POUR LA
CARACTÉRISATION D’IMAGES HYPERSPECTRALES EN TÉLÉDÉTECTION. (Cyril Viron)
En réponse partielle aux problèmes écologiques actuels, l’imagerie
hyperspectrale am- bitionne de connaître la composition locale d’une
parcelle agraire. Pour ce faire, on re- cherche sa signature spectrale
car celle-ci caractérise de façon unique un élément. Ce- pendant, la
signature d’une parcelle s’avère être un mélange pondéré des éléments
s’y trouvant; nous souhaitons récupérer leurs signatures à partir du
mélange : l’analyse en composantes indépendantes (ACI) le permet !
Malgré le nombre restreint de travaux sur l’ACI en hyperspectral, devant
sa popularité en traitement de signal, nous l’avons appli- quée en
utilisant l’algorithme FastICA, méthode la plus récente et efficace,
d’abord sur des images en niveaux de gris et des signaux temporels
classiques (pour constater son effi- cacité) et enfin sur une base de
signatures étalons. Le but est de comparer les composantes indépendantes
à une base référencée pour alors former les paires les plus
ressemblantes. Cependant, du fait des ambiguïtés et d’absence de critère
de validité de l’ACI, il est impos- sible de prédire ni vérifier les
paires. Pour y remédier, nous avons divisé notre protocole expérimental
entre comparaisons théorique et pratique, qui, basées sur des niveaux de
confiance, permettent de former les paires théoriquement justes d’une
part (base partielle) et expérimentales d’autre part (base totale) qui,
comparées, déterminent le succès d’as- sociation. Globalement, les
résultats, assujettis à deux seuils de confiance relatifs, sont
excellents pour les signaux, bons pour les images mais seulement
acceptables pour les signatures. La raison principale est un effet
beaucoup plus visible en ce cas des deux pro- blèmes généraux constatés
: subjectivité de la prise de décision, décorrélation inévitable
entraînant déformations et une trop grande dépendance à la base. Pour
tenter de le réduire, des recommandations constructives ont été
proposées, afin de poser le deuxième échelon de ce travail, qui se
voulait novateur.
DÉTERMINATION DE LA MATURIITÉ DES AVOCATS
HASS PAR IMAGERIE HYPERSPECTRALE. (Denis Girod)
La maturité de l’avocat est établie habituellement en mesurant son
contenu en matière sèche, un processus long et destructif. Le but de
cette étude est d’introduire une technique rapide et non destructrice
pour estimer le taux de matière sèche de ce fruit tropical. Des avocats de la variété « Hass » à différents stades de maturité et
différentes couleurs de peau on été analysés par imagerie hyperspectrale
en mode réflectance et absorbance. La plage des taux de matière sèche
s’étend de 19.8% à 42.5%. Les données hyperspectrales consistent en des
spectres moyennés d’une zone du fruit acquis dans le visible et proche
infrarouge (de 400nm à 1000nm), pour un total de 163 bandes spectrales
distinctes. La relation entre les spectres et les taux de matière sèche a été
établie grâce à des techniques d’analyse chimiométrique, notamment la
régression des moindres carrés partiels (PLS). Les statistiques de
calibration et validation comme le coefficient de détermination (R²), et
l’erreur quadratique moyenne de prédiction (RMSEP) ont été utilisés afin
de comparer les capacités de prédiction des différents modèles. Les
résultats des modélisations PLS portant sur plusieurs randomisations de
la base de données, en utilisant le spectre dans son ensemble, donnent
un R² de 0.86 avec une erreur moyenne RMSEP de 2.45 en mode réflectance,
ainsi qu’un R² moyen de 0.94 avec une erreur RMSEP moyenne de 1.59 pour
le mode absorbance. Cela indique que des modèles raisonnablement précis
(R²>0.8) peuvent être obtenus pour l’évaluation du taux de matière sèche
avec le spectre dans son entier. Cette étude montre également que les concepts de réduction de bandes
spectrales peuvent être appliqués à ce sujet. Partant de 163 bandes
spectrales, le taux de matière sèche a pu être prédit avec les mêmes
performances en utilisant 10% des bandes initiales (16 bandes). Par conséquent cette étude démontre la faisabilité d’utiliser
l’imagerie hyperspectrale dans le domaine du visible et proche
infrarouge en mode absorbance, dans le but de déterminer des propriétés
physicochimiques, le taux de matière sèche dans notre étude, des avocats
Hass de manière non destructive. En outre, cette étude donne des indices
permettant de déterminer quelles bandes spectrales semblent être
pertinentes à cette fin.
DÉNOMBREMENT DE CELLULES VÉGÉTALES PAR
VISION ARTIFICIELLE (Dominic Moreau)
Compter des cellules de plantes en suspension n’est pas un domaine
très exploré. Les cellules sont très complexes, ces cellules sont encore
comptées à la main. Le but de ce projet est de compter des cellules
végétales d’Eschscholtzia californica cultivées en bioréacteur. Les
cellules sont comptées dans des échantillons de suspension liquide pour
en évaluer la concentration. Tout au long de cette recherche, trois problèmes ont été identifiés
et on dû être résolus, soit le manque de caractéristiques distinctives,
la segmentation des objets et l’estimation du nombre de cellules dans un
amas. Le manque de caractéristiques est propre aux cellules végétales en
suspension. L’utilisation de plusieurs opérateurs combinés a permit de
reconnaitre les cellules isolées. Afin de rendre la segmentation robuste,
l’arrière-plan est extrait à l’aide de dix photos disponibles et est
ensuite soustrait de l’image à traiter. Les amas présentent un problème
important. Prendre des images et ensuite compter les cellules de façon
exacte s’est avéré très difficile. L’hypothèse fut posée que
l’estimation de cinq chercheurs expérimentés servirait de référence.
L’estimation du nombre de cellules dans les amas est estimée par volume.
L’utilisation de la révolution de solide permet d’extraire la troisième
dimension des amas. Ce volume est ensuite divisé par le volume d’une
cellule libre qui est estimé comme étant un ovoïde. Les résultats se rapprochent des comptes de chercheurs expérimentés
avec une erreur moyenne de l’ordre de 12 à 15 pourcent et apportent une
constance dans les évaluations des taux de croissances. Afin d’augmenter
la précision, plusieurs recommandations simples telle la recherche de
nouveaux critères et l’amélioration du matériel peuvent être suivies. En
attendant, une interface interactive peut être utilisée pour contrer le
manque de robustesse de l’outil développé.
INVESTIGATION D’UNE NOUVELLE
STRATÉGIE DE CONTRÔLE ENVIRONNEMENTAL POUR BÂTIMENT AVICOLE (François
Lachance) Le principal objectif de ce mémoire est de
développer une méthode permettant d’évaluer objectivement le confort du
poulet dans un bâtiment avicole commercial. À partir de cet indice, les
lignes directrices d’une nouvelle stratégie de contrôle environnemental
pour bâtiment avicole sont proposées. La revue de littérature présentée
fait une synthèse de la notion de confort animal et évalue en détail les
différents facteurs influençant le confort animal. Effectué en
partenariat avec la compagnie Excel Technologies, ce projet présente un
modèle mathématique permettant de calculer la production de chaleur et
d’humidité des poulets en continu dans un bâtiment avicole. À l’aide des
équipements disponibles sur le marché, il a été possible de récolter 40
jours de données en continu pour valider ce modèle. Les données ont été
recueillies dans un bâtiment avicole commercial dans la région de
Lanaudière au Québec à l’aide d’un contrôleur Momentum. Les modèles
d’échanges thermiques et d’humidité permettent de calculer les chaleurs
totale, latente et sensible produites par les poulets. Avec les données
amassées, il a été possible d’étudier l’effet de la température, de
l’humidité relative, de la vitesse de l’air et de l’intensité lumineuse
sur la production de chaleurs totale, latente et sensible. Suite à ce
projet, une méthodologie permettant de développer un modèle mathématique
pour évaluer le débit de ventilation avec précision est proposé ainsi
qu’une démarche expérimentale pour évaluer les résistances thermiques
équivalentes les différentes surfaces d’un bâtiment avicole. Finalement,
les bases d’une nouvelle stratégie de contrôle environnemental sont
proposées pour parvenir à un meilleur contrôle de l’environnement de
production à l’intérieur des bâtiments avicoles commerciaux québécois.
L’utilisation des concepts d’intelligence artificielle pourrait s’avérer
prometteuse lors du développement d’une stratégie de contrôle basée sur
le confort animal.
Projet en collaboration avec l'industrie - Projet S3I
(Station d'inspection industrielle intelligente) Ce
projet, financé en partie par le Programme Alliance Precarn-CRIM,
visait le développement d'une station d'inspection visuelle pour les
petits objets de plastique. Le maître d'oeuvre était la firme I.C.
Vision de Montréal. L'équipe était formée de 3 partenaires: IC. Vision
(Serge Lévesque), le CRIM (Langis Gagnon) et le Département de Génie de
la production automatisée de l'École de technologie supérieure
(Jacques-André Landry), pour le perfertionnement du module
d'acquisition et de traitement des images. (Voir
la video)
|
|
|
|