Skip to content

madoci/jelly

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Jelly

GitHub release (latest by date) Build Status License: GPL v3 codecov Maintainability GitHub Release Date

Table des matières

Fonctionnalités

Jelly est une bibliothèque d'analyse de données en Java. Elle propose plusieurs classes et méthodes permettant de manipuler et analyser facilement des ensembles de données.

Le Dataframe est la structure de base de la bibliothèque Jelly. Il s'agit d'une classe permettant de stocker des tableaux à deux dimensions. Chaque colonne est identifiée par un label et contient des données d'un seul type. Deux colonnes d'un même dataframe peuvent en revanche contenir des données de types différents. Les lignes d'un dataframe sont indexées à partir de 0.

Construction d'un dataframe

Il est possible de construire un dataframe de trois manières différentes :

  • à partir des types de données de chaque colonne
  • à partir de tableaux d'objets
  • à partir d'un fichier CSV

A partir des types de données

Pour constuire un dataframe à partir des types de données de chaque colonne, il faut donner au constructeur un tableau de labels suivi d'un tableau de classes, données dans le même ordre que les labels :

public Dataframe(String[] labels, Class<?>[] types)

Il est ensuite possible d'ajouter des lignes à la fin du dataframe avec la méthode addRow :

public void addRow(Object row[])

L'ordre des objets dans le tableau passé en paramètre doit être le même que celui des colonnes défini lors de la construction du dataframe. Si un des objets donnés ne correspond pas au type de la colonne dans laquelle il est ajouté, une IllegalArgumentException est levée.

Exemple :

String[] labels = { "A", "B" };
Class<?>[] types = { String.class, Integer.class };
Dataframe dataframe = new Dataframe(labels, types);

String A = "Exemple";
Integer b = 12;
Object[] row = { a, b };
dataframe.addRow(row);

A partir de tableaux d'objets

Pour construire un dataframe à partir de tableaux d'objets, il faut donner au constructeur un tableau de labels suivi d'un de tableau d'objets par colonne :

public Dataframe(String[] labels, Object[] ...data)

Cette méthode détermine le type de chaque colonne automatiquement en fonction des objets donnés. Si un des tableaux contient des objets de types différents ou uniquement des références nulles, une IllegalArgumentException sera levée.

Exemple :

String[] labels = { "A", "B" };
String[] columnA = { "1", "2" };
Integer[] columnB = { 12, 0 }
Dataframe dataframe = new Dataframe(labels, columnA, columnB);

Le nombre de lignes finales du dataframe est déterminé par la taille de la plus grande colonne passée en paramètre. Les autres colonnes seront remplies par des références nulles pour avoir le même nombre de lignes.

A partir d'un fichier CSV

Pour construire un dataframe à partir d'un fichier CSV, il faut simplement donner au constructeur le chemin du fichier :

public Dataframe(String pathname)

La première ligne du fichier CSV correspond aux labels des colonnes, et chaque ligne suivante correspond à une ligne du dataframe. Les types des colonnes sont interprétés automatiquement. Seules les chaînes de caractères (String), les entiers (int) et les réels (double) sont reconnus.

Le fichier CSV devra respecter les conventions du format CSV (cf. https://en.wikipedia.org/wiki/Comma-separated_values#Basic_rules). Si le format n'est pas respecté, une InvalidCSVFormatException sera levée.

Il est actuellement impossible de mettre un retour à la ligne dans un champ, même s'il est entouré de guillemets comme spécifié dans les règles du format CSV.

Accès aux données d'un dataframe

L'accès aux données d'un dataframe se fait par l'intermédaire de plusieurs méthodes, notamment :

  • get(i, j) : renvoie l'élément à la ligne i colonne j
  • get(i, label) : renvoie l'élément à la ligne i et la colonne identifiée par label

D'autres méthodes existent et permettent d'accéder au label et type d'une colonne, à toute une ligne, à toute une colonne, ou bien encore au nombre de lignes et de colonnes dans un dataframe. Pour plus d'informations à propos de ces méthodes, consultez la documentation.

Affichage d'un dataframe

Il est posssible d'afficher rapidement un dataframe pour visualiser ses données, soit en utilisant l'affichage par défaut, soit en le personnalisant.

Visualiser les données

Pour visualiser les données d'un dataframe, plusieurs méthodes sont disponibles :

  • view() : affiche la totalité du dataframe
  • head() / head(num) : affiche les premières lignes du dataframe (num permet de définir le nombre de lignes affichées)
  • tail() / tail(num) : affiche les premières lignes du dataframe

Les méthodes head() et tail() affiche un nombre de lignes prédéfini (5 par défaut). Les méthodes head(num) et tail(num) permettent de définir précisément le nombre de lignes à afficher.

Ces méthodes renvoient toutes une chaîne de caractères (String) correpondant à la représentation du dataframe.

La méthode toString() de Dataframe renvoie le même résultat que view().

Personnaliser l'affichage

L'affichage d'un dataframe se fait par l'intermédaire d'un objet implémentant l'interface DataframeViewer. Il est possible de changer le viewer utilisé par un dataframe avec la méthode :

public void setViewer(DataframeViewer viewer)

La classe TabularDataframeViewer permet ainsi de personnaliser l'affichage simplement, en changeant le séparateur entre les colonnes ou le nombre de lignes affichées par défaut lors de l'appel à head() ou tail().

Exemple :

TabularDataframeViewer viewer = new TabularDataframeViewer();
viewer.setSeparator(" | ");
dataframe.setViewer(viewer);

Sélection sur un dataframe

Afin de pouvoir extraire des sous-ensembles d'un dataframe, il est possible d'effectuer des sélections de plusieurs types différents :

  • sélection de lignes ou colonnes spécifiées par leurs indices ou labels
  • sélection de lignes remplissant une condition

Ces sélections renvoient un nouveau dataframe correspondant au sous-ensemble souhaité. Elles sont effectuées par un objet DataframeSelection accessible avec la méthode select() du dataframe (select() renvoie un outil de sélection associé au dataframe appelant).

Les dataframes créés par sélection utilisent le même viewer que le dataframe original. Si un affichage personnalisé a été défini pour un dataframe, il n'est donc pas nécesssaire de le redéfinir pour ses sous-ensembles.

Sélectionner des lignes et colonnes spécifiques

Cinq méthodes existent permettant de sélectionner certaines lignes et certaines colonnes spécifiques dans un dataframe :

  • row(rows) : renvoie un dataframe avec uniquement les lignes spécifiées et toutes les colonnes
  • column(columns) / column(labels) : renvoie un dataframe avec uniquement les colonnes spécifiées (par indices ou par labels) et toutes les lignes
  • cross(rows, columns) / cross(rows, labels) : renvoie un dataframe avec uniquement les lignes et les colonnes spécifiées (par indices ou par labels)

Exemple :

int[] rows = { 0, 2, 3, 5 };
String labels = { "B", "A" };

Dataframe a = dataframe.select().row(rows);
Dataframe b = dataframe.select().column(labels);
Dataframe c = dataframe.select().cross(rows, labels);

L'ordre des lignes et des colonnes du dataframe résultant est le même que celui des tableaux donnés en paramètres. Il est donc possible de modifier l'ordre des lignes et des colonnes d'un dataframe avec une sélection.

Sélectionner des lignes selon une condition

La sélection peut également être faite en imposant une condition sur les champs d'une colonne. Les méthodes permettant d'effectuer de telles sélections sont les suivantes :

  • equal(label, value) : renvoie un dataframe avec uniquement les lignes dont le champ de la colonne label est égal à value
  • notEqual(label, value) : renvoie un dataframe avec uniquement les lignes dont le champ de la colonne label est différent de value
  • lessThan(label, value) : renvoie un dataframe avec uniquement les lignes dont le champ de la colonne label est strictement inférieur à value
  • lessEqual(label, value) : renvoie un dataframe avec uniquement les lignes dont le champ de la colonne label est inférieur ou égal à value
  • greaterThan(label, value) : renvoie un dataframe avec uniquement les lignes dont le champ de la colonne label est strictement supérieur à value
  • greaterEqual(label, value) : renvoie un dataframe avec uniquement les lignes dont le champ de la colonne label est supérieur ou égal à value

La valeur passée en paramètre doit être comparable au type de la colonne spécifiée. Si ce n'est pas le cas, une IllegalArgumentException sera levée.

Exemple :

Dataframe a = dataframe.select().equal("Prix", 2.50);
Dataframe b = dataframe.select().lessThan("Nom", "F");

Les conditons sur les références nulles sont toujours fausses, même dans le cas de notEqual. Lors d'une sélection par condition, toutes les lignes dont le champ de la colonne spécifiée est une référence nulle seront donc ignorées.

Statistiques sur un dataframe

Des calculs de statistiques de base peuvent être exécutés sur les colonnes d'un dataframe. Les méthodes de calcul sont fournies par un objet DataframeStatistics associé à un dataframe, accessible via sa méthode stats().

Effectuer des calculs statistiques

Les méthodes fournies permettent de calculer :

  • argmin / argmax : indice de la ligne contenant la valeur minimale / maximale de la colonne spécifiée
  • min / max : valeur minimale / maximale de la colonne spécifiée
  • sum : somme sur toutes les lignes des champs de la colonne spécifiée
  • mean : moyenne sur toutes les lignes des champs de la colonne spécifiée
  • median : médiane de la colonne spécifiée

Exemple :

int argmin = dataframe.stats().argmin("Prix");
double sum = dataframe.stats().sum("Prix");

Les références nulles sont toujours ignorées dans les calculs statistiques. Elles ne sont donc pas comptabilisées non plus dans la moyenne.

Configurer les calculs statistiques

Le calcul des statistiques d'un dataframe passe par l'utilisation des méthodes statiques de la classe ArrayStatistics permettant d'effectuer les calculs sur des tableaux d'objets. ArrayStatistics utilise à son tour des objets implémentant l'interface Operator pour effectuer ses calculs sur des objets de types différents. Chaque opérateur est associé au type d'objet sur lequel il opère. Il est possible d'ajouter ou modifier des opérateurs, autorisant notamment les calculs statistiques sur des objets de ses propres classes.

Par défaut, seuls deux opérateurs sont définis : IntegerStrictOperator pour les entiers, et DoubleOperator pour les doubles et toute autre classes implémentant Number. L'opérateur IntegerOperator existe également et peut remplacer IntegerStrictOperator si l'on souhaite obtenir des doubles lors des calculs de moyenne et de médiane.

Exemple :

ArrayStatistics.setOperator(Integer.class, new IntegerOperator());

La démo mathset fournit un exemple d'opérateur personnalisé pour les ensembles d'entiers (cf. IntegerSetOperator).

Outils utilisés

GitHub workflow

Le projet a été développé en utilisant le workflow de GitHub (cf. GitHub flow). Le principe est le suivant :

  • la branche principale est la branche master.
  • chaque nouvelle fonctionnalité ou correction de bug est développée sur une nouvelle branche basée sur master (feature/<name> pour les fonctionnalités et hotfix/<name> pour les corrections de bugs déjà présents sur master).
  • lorsqu'une fonctionnalité/correction est terminée, une pull request est ouverte et les collaborateurs peuvent la passer en revue et poster des commentaires.
  • lorsque la branche a été vérifiée et acceptée, elle est fusionnée sur master et la pull request est fermée.

Outils Java

Junit

Les tests unitaires ont été mis en place avec Junit 4. Cela permet de vérifier à chaque nouvelle phase de développement que toutes les méthodes fonctionnent encore.
Une classe de test est ajoutée (dans le dossier src/test/java) pour chaque nouvelle classe du projet. Les méthodes de test sont donc écrites au fur et à mesure du développement.

Javadoc

Le code a été documenté à l'aide de nombreux commentaires. Notamment, toutes les classes, interfaces et méthodes publiques possèdent des commentaires au format javadoc. La documentation est disponible en archive JAR pour chaque release du projet (à partir de la version 0.3.0).

Maven

Pour gérer et automatiser la production de notre projet, nous avons utilisé Maven.

Automatisation des tests

La phase test de Maven a été configurée pour lancer tous les tests unitaires créés avec Junit et générer un rapport de couverture JaCoCo à partir de ces tests.

Release et déploiement

La version courante du projet est indiquée dans le fichier pom.xml de Maven. Lorsqu'il s'agit d'une version en développement, le numéro de version est suffixé par "-SNAPSHOT". Cela indique à Maven que le code de cette version peut changer d'une date à l'autre. Lors d'une release, le suffixe est retiré et la version est définitive (le code source est immuable). Pour créer une nouvelle release, il faut donc modifier la version du pom.xml pour la version de release, commit la modification, créer un tag, remodifier la version du pom.xml pour la nouvelle version de développement et commit le changement.
Pour automatiser ce processus, nous avons écrit le script release.sh.

La phase deploy de Maven a été configurée pour déployer le logiciel sur GitHub Package. La dernière version de la bibliothèque ainsi que les versions précédentes sont donc disponibles sur le dépôt GitHub à la page https://github.com/madoci/jelly/packages.

Génération de la Javadoc

Le plugin Javadoc de Maven a été utilisé pour générer automatiquement une archive JAR de la documentation lors de la phase package.

Travis CI

Travis CI est un service en ligne d'intégration continue pour les projets hébergés sur GitHub. Il permet de définir des tâches à effectuer lorsqu'un commit est envoyé sur le dépôt github.

Phase de test

A chaque fois qu'un commit est envoyé sur GitHub (et que ce n'est pas un tag), la commande mvn test -B est exécutée dans un environnement de Travis CI. Cela permet de vérifier que tous les tests unitaires sont validés dès qu'une nouvelle modification est apportée, et donc de corriger des erreurs le plus rapidement possible, et surtout avant la mise en production. Si un des tests échoue, le statut du build est indiqué comme failed.
GitHub a d'ailleurs été configuré pour imposer les pull requests à réussir le build de Travis CI avant de pouvoir être fusionné sur master.

Phase de déploiement

Lorsqu'un tag est créé ou envoyé sur GitHub, c'est la commande mvn deploy -B qui est lancée. Celle-ci va également effectuer les tests unitaires, puis s'ils réussissent, créer les archives JAR du projet et de la javadoc, puis déployer le package sur GitHub Package (cf. section Release et déploiement).
Travis CI va ensuite ajouter les deux archives sur GitHub Release (https://github.com/madoci/jelly/releases).

CodeCov

CodeCov est un service en ligne permettant d'analyser les rapports de couverture de code (générés par des outils comme JaCoCo) du projet. Les rapports sont envoyés automatiquement avec Travis CI lorsque la phase de build réussi (phase after_success).
Cet outil nous a permis de maintenir un haut taux de couverture à travers tout le projet.

Code Climate

Code Climate est un service en ligne permettant entre autres d'analyser la qualité du code d'un projet. Afin de toujours fournir un code source propre et facilement lisible et maintenable, nous avons développé le projet avec soin, corrigeant et factorisant le code dès que Code Climate indiquait des soucis.

Image Docker

Une image docker a été créée pour exécuter facilement une démonstration des possibilités de la bibliothèque Jelly.

Application démo

L'application mathset utilise les dataframes avec des ensembles d'entiers. Un opérateur a été défini pour ces ensembles et permet donc d'effectuer des calculs statistiques sur eux. Par exemple, la somme renvoie l'union de tous les ensembles.
L'option -i permet de lancer une interface autorisant l'utilisateur à effectuer des opérations sur un dataframe de base. Sans cette option, un scénario est déroulé pour montrer différents cas d'utilisation de la bibliothèque.

Le projet mathset utilise également Maven et possède son propre pom.xml. La bibliothèque Jelly est déclarée dans ses dépendances Maven et est installée automatiquement lorsqu'une commande mvn est utilisée. Cela est possible grâce au déploiement sur GitHub Package. Le plugin Maven Assembly permet ensuite de générer une archive JAR avec toutes les dépendances.

Création d'une image Docker

Un fichier Dockerfile a été ajouté à la démo. Ce fichier permet de créer une image Docker en copiant l'archive JAR de la démo (archive avec les dépendances), et en l'exécutant avec l'option -i. Une fois l'image construite (ou récupérer sur Docker Hub), un conteneur peut être créé à partir de celle-ci pour lancer l'application mathset :

docker run -i --name <container-name> <image-name>

L'option -i permet de lancer le conteneur en interactif. Ceci est nécessaire car l'application requiert des entrées utilisateurs.

Déploiement sur Docker Hub

L'image Docker de la démo est déployé automatiquement sur Docker Hub à l'aide de travis CI lors de la phase de déploiement. Après le déploiement des archives sur GitHub Release, Travis CI :

  1. se déplace à la racine de la démo mathset
  2. crée son archive JAR avec mvn package -B
  3. crée l'image Docker
  4. se connecte sur Docker Hub (les identifiants sont chiffrés par Travis CI)
  5. envoie l'image sur le dépôt Docker Hub

L'image Docker de la démo peut être retrouvée à l'addresse https://hub.docker.com/r/madoci/jelly.

Actuellement, une seule image est conservée, remplacée à chaque release par la version plus récente. Travis CI n'a pas été configuré pour ajouter le numéro de version au nom de l'image.

Feedback

La prise en main des outils est assez longue, notamment pour comprendre comment les intégrer tous ensemble au projet. Il y donc une grande phase d'adaptation et de mise en place relativement compliquée au début du projet.
En revanche, une fois cette première phase passée, le développement logiciel dans un contexte comme celui-ci est très intéressant et formateur. Cela nous a permis de découvrir de nombreux outils et services très utiles et d'apprendre certaines bonnes pratiques du développement logiciel.
L'appui sur la procédure d'intégration à mettre en place nous a permis de ne pas trop nous focaliser uniquement sur le développement des fonctionnalités comme on a souvent l'habitude, améliorant au final grandement notre efficacité et la qualité du code produit.