Le but de ce projet a été de créer un logiciel permettant la compression d’images via la détection de surfaces d’une même couleur, ainsi que de permettre la décompression du fichier ainsi généré à la compression en une image identique à l’image d’origine. Il est à noter que cet algorithme est orienté vers les images de style /comics/ ou avec peu de couleurs, d’où l’image test que vous trouverez en [[*Image de test][annexe]] qui fut mon image de test principale.
Le lien de l’énoncé original se situe également en annexe. Une documentation du projet sera également disponible en suivant le lien donné également en annexe.
Afin de résoudre ce problème, je me suis basé sur un algorithme de M. Jean-Jaques Bourdin et l’ai adapté au problème de la manière suivante: pour chaque pixel de l’image, je teste si le pixel courant a une couleur identique à la couleur d’une surface, ou zone, déjà existante. Si une telle zone n’existe pas déjà, alors je la créé puis pour chaque pixel de la ligne courante je me déplace à l’extrême gauche et à l’extrême droite du segment de la même couleur que le pixel courant. Ainsi on obtient un segment de couleur unie, et il est donc possible de maintenant stocker uniquement les limites de ce segment et à l’ajouter à la collection de segments de la zone, qui elle contient les informations de la couleur de la zone. Ensuite, pour chaque pixel en dessus puis en dessous de ce segment, on répète la même procédure. Cela permet de lister toutes les zones contigües et de les ajouter ainsi à la zone courante.
Actuellement, avec l’image de test que l’on peut trouver sur mon dépôt git (lien en annexes) d’une taille de 3582016 octets, j’obtiens un taux de compression de 67% environ avec une image compressée à 2403581 octets.
Pour ce qui est du temps d’exécution, j’exécute le script suivant avec la commande ~./run-time.sh 10~ (10 étant le nombre d’exécutions que je souhaite effectuer) afin d’obtenir le temps d’exécution à répétition du programme:
Il est possible d’améliorer l’algorithme par rapport à celui utilisé initialement en ignorant l’étape de test des pixels supérieurs et inférieurs à un segment testé. En effet, cette étape est un résidu de l’algorithem d’origine qui a pour but de ne détecter qu’une zone dont tous les segments sont contigus à au moint un autre segment de la même forme, le tout ne constituant qu’une seule et unique forme continue. Hors ici ce dernier point ne nous intéresse pas, et deux formes de la même couleur n’ont pas à être considérées comme étant deux entités différentes. Ainsi, en ignorant cette étape cela permet de passer de manière itérative sur tous les pixels, simplifiant ainsi l’algorithme.
La modification apportée au code source est relativement simple étant donné qu’il suffit de commenter les deux dernières boucles ~for~ de la fonction ~addPixelToSelectedZone~ du fichier ~compress.c~. Cela bloque l’exécution de la fonction créant les segments à partir des pixels au dessus et en dessous du segment courant.
Avec dix exécutions successives, sur le même processeur avec les mêmes arguments et le programme également compilé avec les options d’optimisation `-O3` également, j’obtiens une vitesse d’exécution moyenne à la compression/décompression successives de 7.23s, soit une perte de 2.35% du temps d’exécution d’origine. J’explique cela par le fait que pour chaque nouveau pixel non-traité, il est nécessaire de trouver la zone correspondant à la couleur du nouveau pixel, ce qui en soit prend du temps alors qu’avec la méthode d’origine, on connaît déjà la zone et on n’a qu’à explorer les pixels de couleur unie, sachant que là où on a le plus de chance de trouver des pixels de couleur identique sur des images de type comics est au niveau des pixels adjascents au pixel actuel. Ainsi, cette piste s’est révélée non concluante, et je ne continuerai pas dans cette direction.
L’algorithme actuel considère le fichier d’entrée comme étant une image en deux dimensions, limitant ainsi les segments au début d’une ligne de pixels même si le pixel précédent dans le vecteur dans lequel ces derniers sont stockés est de la même couleur, divisant ainsi des segments en plusieurs segments inutilement. En ignorant ces fins de lignes pour ne procéder qu’à l’analyse des pixels comme ne faisant partie que d’une ligne unique permettrait d’éviter ces ajouts inutiles de segments, et ainsi économiser un peu d’espace avec le fichier compressé. Cependant, je ne pense pas que cette solution soit réellement efficace du fait du peu de cas où ce problème se pose.
if (current_pixel->visited || !sameColor(current_pixel, t_zone)) {
break;
}
(*current_pixel).visited = 1;
}
#+END_SRC
Cette modification permet d’ignorer les retours à la ligne et ainsi potentiellement économiser de l’espace lors de l’écriture de fichier compressés.
*** Résultats
Hélas le gain d’espace n’est pas flagrant, et cela s’explique par le faible nombre de lignes de pixels de l’image, 1500 dans ce cas, et du fait qu’économiser deux ~uint32_t~ par ligne est une amélioration mineure, permettant dans le cas de l’image ~asterix.ppm~ d’économiser uniquement 12 kilo octets. La différence sur le fichier compressé de 2.3 méga octets d’origine est donc négligeable. Je ne continuerai donc pas de travailler sur cette piste.
Il existe toujours la possibilité de ne plus faire que de la compression sans pertes mais de faire également de la compression avec pertes, en acceptant en argument un taux de tolérance quant à la similarité des couleurs entre elles. Ainsi, cela éliminera certaines couleurs de l’image et économisera ainsi des zones disposant d’un petit nombre de zones ou de segments en les assimilant aux couleurs qui leur sont proches. L’inconvénient est qu’avec ce paramètre, il sera impossible de restituer l’image d’origine à l’identique.
Seuls trois fichiers ont eu à être modifiés: ~main.c~, ~compress.h~ et ~compress.c~. Voici ci-dessous les modifications apportées à chacun de ces fichiers (sortie de la commande ~git diff~):
#+BEGIN_SRC text
diff --git a/src/compress.c b/src/compress.c
index 191265a..25e43aa 100644
--- a/src/compress.c
+++ b/src/compress.c
@@ -5,6 +5,8 @@
#include "compress.h"
+int tolerance;
+
/**
,* Cette fonction permet d’évaluer si le pixel passé en argument est éligible à
,* la zone passée également en argument.
@@ -14,10 +16,17 @@
,* \return Valeur booléenne, `1` si le pixel est éligible, `0` sinon
La nouvelle option ~-t~ est une option très sensible qui peut profondément changer la qualité de l’image dès des valeurs basses, aux alentours de 15 à 25. Cependant, une nette réduction de la taille de l’image compressée peut être constatée, ainsi qu’une baisse notable du temps de compression de l’image dû aux recherches des zones correspondant aux pixels moins fréquentes, et lorsqu’elles se produisent, la recherche se fait parmi moins de zones. Ainsi, pour différentes valeurs de tolérance, on obtient ces résultats:
On remarque cependant qu’après environ 30% de tolérance de couleur, les temps ont tendance à remonter et les fichiers ont tendance à devenir plus lours, excepté pour la tolérance de 50%. Je suppose qu’il s’agit du fait d’un grand nombre de segments contigus de couleur différente s’alternant rapidement. En tous cas, bien qu’on aie en effet quelques améliorations concernant la taille de l’image compressée, je ne considère personellement pas cette technique comme en vallant la peine du fait d’artéfacts facilement visibles dès les premières valeurs proches de 0, comme on peut le voir sur l’image ci-dessous, compressée avec une tolérance de 5%:
Dans le cas où cela ne serait pas bien visible en version papier, une version digitale de ce document est disponible en ligne, voir le lien donnée en [[*Liens][annexes]].