Le but de ce projet a été de créer un logiciel permettant la compression d’images via la détection de surfaces d’une même couleur, ainsi que de permettre la décompression du fichier ainsi généré à la compression en une image identique à l’image d’origine. Il est à noter que cet algorithme est orienté vers les images de style /comics/ ou avec peu de couleurs, d’où l’image test que vous trouverez en [[*Image de test][annexe]] qui fut mon image de test principale.
* Résolution initiale du problème
Afin de résoudre ce problème, je me suis basé sur un algorithme de M. Jean-Jaques Bourdin et l’ai adapté au problème de la manière suivante: pour chaque pixel de l’image, je teste si le pixel courant a une couleur identique à la couleur d’une surface, ou zone, déjà existante. Si une telle zone n’existe pas déjà, alors je la créé puis pour chaque pixel de la ligne courante je me déplace à l’extrême gauche et à l’extrême droite du segment de la même couleur que le pixel courant. Ainsi on obtient un segment de couleur unie, et il est donc possible de maintenant stocker uniquement les limites de ce segment et à l’ajouter à la collection de segments de la zone, qui elle contient les informations de la couleur de la zone. Ensuite, pour chaque pixel en dessus puis en dessous de ce segment, on répète la même procédure. Cela permet de lister toutes les zones contigües et de les ajouter ainsi à la zone courante.
Actuellement, avec l’image de test que l’on peut trouver sur mon dépôt git (lien en annexes) d’une taille de 3582016 octets, j’obtiens un taux de compression de 67% environ avec une image compressée à 2403581 octets.
Pour ce qui est du temps d’exécution, j’exécute le script suivant avec la commande ~./run-time.sh 10~ (10 étant le nombre d’exécutions que je souhaite effectuer) afin d’obtenir le temps d’exécution à répétition du programme:
Il est possible d’améliorer l’algorithme par rapport à celui utilisé initialement en ignorant l’étape de test des pixels supérieurs et inférieurs à un segment testé. En effet, cette étape est un résidu de l’algorithem d’origine qui a pour but de ne détecter qu’une zone dont tous les segments sont contigus à au moint un autre segment de la même forme, le tout ne constituant qu’une seule et unique forme continue. Hors ici ce dernier point ne nous intéresse pas, et deux formes de la même couleur n’ont pas à être considérées comme étant deux entités différentes. Ainsi, en ignorant cette étape cela permet de passer de manière itérative sur tous les pixels, simplifiant ainsi l’algorithme.
La modification apportée au code source est relativement simple étant donné qu’il suffit de commenter les deux dernières boucles ~for~ de la fonction ~addPixelToSelectedZone~ du fichier ~compress.c~. Cela bloque l’exécution de la fonction créant les segments à partir des pixels au dessus et en dessous du segment courant.
Avec dix exécutions successives, sur le même processeur avec les mêmes arguments et le programme également compilé avec les options d’optimisation `-O3` également, j’obtiens une vitesse d’exécution moyenne à la compression/décompression successives de 7.23s, soit une perte de 2.35% du temps d’exécution d’origine. J’explique cela par le fait que pour chaque nouveau pixel non-traité, il est nécessaire de trouver la zone correspondant à la couleur du nouveau pixel, ce qui en soit prend du temps alors qu’avec la méthode d’origine, on connaît déjà la zone et on n’a qu’à explorer les pixels de couleur unie, sachant que là où on a le plus de chance de trouver des pixels de couleur identique sur des images de type comics est au niveau des pixels adjascents au pixel actuel. Ainsi, cette piste s’est révélée non concluante, et je ne continuerai pas dans cette direction.
L’algorithme actuel considère le fichier d’entrée comme étant une image en deux dimensions, limitant ainsi les segments au début d’une ligne de pixels même si le pixel précédent dans le vecteur dans lequel ces derniers sont stockés est de la même couleur, divisant ainsi des segments en plusieurs segments inutilement. En ignorant ces fins de lignes pour ne procéder qu’à l’analyse des pixels comme ne faisant partie que d’une ligne unique permettrait d’éviter ces ajouts inutiles de segments, et ainsi économiser un peu d’espace avec le fichier compressé. Cependant, je ne pense pas que cette solution soit aussi efficace que la possibilité suivante avec laquelle la possibilité actuelle d’optimisation n’est pas compatible.
if (current_pixel->visited || !sameColor(current_pixel, t_zone)) {
break;
}
(*current_pixel).visited = 1;
}
#+END_SRC
Cette modification permet d’ignorer les retours à la ligne et ainsi potentiellement économiser de l’espace lors de l’écriture de fichier compressés.
*** Résultats
Hélas le gain d’espace n’est pas flagrant, et cela s’explique par le faible nombre de lignes de pixels de l’image, 1500 dans ce cas, et du fait qu’économiser deux ~uint32_t~ par ligne est une amélioration mineure, permettant dans le cas de l’image ~asterix.ppm~ d’économiser uniquement 12 kilo octets. La différence sur le fichier compressé de 2.3 méga octets d’origine est donc négligeable. Je ne continuerai donc pas de travailler sur cette piste.
Actuellement, chaque position de pixel est stockée via deux ~uint64_t~ donnant l’extrême gauche et l’extrême droite d’un segment, ainsi stockant le segment individuel sur seize octets. L’emplacement est considéré comme étant l’emplacement sur un vecteur à dimension unique stockant successivement tous les pixels. Il est possible à la place de cette méthode de considérer la dimension duelle de l’image et de ne stocker que la position verticale du segment et ses extrêmes gauche et droit sur un ~uint32_t~. Cela permet donc d’indexer des segments sur des images de 2^{64} pixels (plus de quatre milliards de pixels) de haut et de large, ce qui est largement suffisant pour la majorité des cas, tout en utilisant quatre octets de moins que pour la version actuelle du programme. Il serait également possible de stocker ces valeurs sur trois ~uint16_t~, n’utilisant ainsi que six octets au total et limitant la taille maximale de l’image d’entrée à 2^{16} pixels de haut et de large.
Il existe toujours la possibilité de ne plus faire que de la compression sans pertes mais de faire également de la compression avec pertes, en acceptant en argument un taux de tolérance quant à la similarité des couleurs entre elles. Ainsi, cela éliminera certaines couleurs de l’image et économisera ainsi des zones disposant d’un petit nombre de zones ou de segments en les assimilant aux couleurs qui leur sont proches. L’inconvénient est qu’avec ce paramètre, il sera impossible de restituer l’image d’origine à l’identique.
Il est également possible d’associer certaines des propositions précédentes améliorantes afin de tester si elles peuvent davantage améliorer le projet.