Après avoir testé Refertest pendant quelques heures voici mes premières impressions :
· C’est beau, sincèrement je trouve l’interface bien travaillée comparée à des logiciels comme TestLink sur lequel je travaille en ce moment
· Présence d’une version française en plus de la version anglaise
· Bonne ergonomie (drag and drop fonctionne dans tous les cas où j’ai voulu l’utiliser)
· Navigation aisée et instinctive, par contre lorsque l’on va dans une partie (ex exigence) alors on retombe toujours sur l’écran par défaut même si on est déjà passé sur cette partie et étions sur un autre écran (une fonctionnalité en particulier pour les exigences)
Navigation aisée entre les différentes parties (Plan de test, anomalies, campagnes…)
Lien pour demander l’accès au bac à sable.
Visite guidée de refertest.
Il est toutefois possible d’ouvrir autant d’onglets ou de fenêtres que l’on souhaite afin de conserver certains items à l’écran. Le mécanisme de licence permet d’ouvrir autant de sessions que l’on souhaite pour un même utilisateur sur un même poste et sur le même navigateur.
Exemple d’affichage de deux fenêtres sur le même projet : une sur le module du « Plan de Test » et sur le module « Exigences ».
Module plan de test (Test Plan sur ALM)
Ici, on a accès à la liste des cas de test (automatisés ou manuels). Comme pour ALM ils sont organisés en arbre, facile à déplacer, copier et créer.
Voici l’écran pour créer une étape
Remarques :
· il est obligatoire de rentrer le nom de chaque étape, il n’y en a pas par défaut. Cela peut potentiellement faire perdre un peu de temps.
· Un champ spécifique est fait pour les données
Autres informations : Module Plan de test : http://www.referty.com/module-plan-test
Module Campagne (test set sur ALM)
Exécution manuelle :
On est obligé de sélectionner l’onglet « Etape » pour pouvoir valider les différentes étapes du test. En effet, ce n’est pas l’onglet par défaut pour exécuter le test manuellement
L’exécution du test est instinctive et proche d’ALM
Le premier onglet présenté permet de lire la description générale du test à exécuter, mais aussi de saisir :
· Un nom de run différent de celui renseigné par défaut (RUN_AAA/MM/JJ_HH:MM:SS par défaut)
· Une description générale du run
Il est possible d’utiliser les boutons du bas de l’écran pour affecter le même résultat à toutes les étapes.
Voici un exemple de liste de tests d’une campagne :
· C’est visuel
· Facile à comprendre
· Attention : le double clic n’ouvre pas sur l’exécution des tests
Le double-clic sur le nom d’un test affiche les résultats du test. Cette action est équivalente au clic du bouton « Voir le résultat des exécutions » :
Pour lancer l’exécution d’un ou plusieurs tests, il faut utiliser un des 3 boutons suivants :
Suivi de campagne :
Il suffit de sélectionner la campagne et (comme sur ALM lorsque c’est configuré) on a un suivi de l’exécution des cas de test
Depuis l’écran affiché lorsque l’on clique sur une campagne (ongle description) on a accès à son avancement (Ce dashboard est inclut par défaut).
On a également accès aux anomalies liées à cette campagne en changeant d’onglet.
Par rapport à la liste des tests de la campagne, lorsque l’on double clic sur le test on a alors l’écran ci-dessous dans lequel on peut visualiser le détail des différentes exécution et les anomalies liées :
La création de bug est également aisée lorsque l’on a déjà utilisé des ALM. On clique sur le bouton « créer une anomalie » lors de l’exécution ou après un double clic sur le test en question et on obtient l’écran ci-dessous :
Je pense que le contenu de cet écran est éditable. Ce que j’ai vu par défaut me semble pertinent.
Par défaut, la description du bug reprend les étapes du test exécuté (ce qui permet d’avoir un scénario de reproduction dans une majorité des cas).
Refertest permet en effet d’ajouter des rubriques paramétrable par l’utilisateur de type « Texte », « Liste », « Numérique » ou « Date », et ce dans tous les modules (« Plan de test », « Exigence », « Campagnes » et « Anomalies »).
Les valeurs associées aux listes sont également paramétrables.
Attention 2 remarques :
· Agrandir la police puis changer la couleur et/ou mettre en gras réinitialise la taille
· Pas de rouge dans les couleurs proposées
Bug bien lié au test
Plus d’informations : Module Campagne : http://www.referty.com/module-campagne
Module Anomalies (defect dans ALM)
Plusieurs filtres possibles, par défaut on tombe sur une vue arbre :
On peut également avoir une vue liste :
Avec la possibilité d’ajouter des filtres assez facilement (ici filtre sur l’état « Nouvelle ») :
Malheureusement il est compliqué de savoir directement quels sont les filtres sans cliquer le bouton filtre
Pour voir le filtre actif dans un arbre ou dans une liste, il suffit de cliquer sur le bouton « Information » situé à côté des boutons d’activation des filtres :
Exemple de filtre dans l’arbre des tests
Partie Exigences (partie requirements dans ALM)
· Facilité de création des fonctionnalités (même fonctionnement que création de test)
· Facilité d’ajout de test pour chaque fonctionnalité
· Facilité pour retrouver tout bug ou campagne liée
Plus d’informations : Module Anomalie : http://www.referty.com/module-anomalies
Partie Tableaux de bord (partie Dashboard dans ALM)
Facile de créer un dashbord
Ou d’en utiliser un autre
Je n’ai fait face qu’à 1 seul problème. J’ai voulu changer un graphique et l’ai supprimé, je n’ai alors pas réussi à avoir un graphique à l’endroit où j’avais supprimé le précédent (c’est pour cela que j’ai un graphique qui prend 1 ligne entière dans mon dashboard créé).
Je ne sais pas également comment on fait pour choisir les données utilisée lors de dashboard sur les anomalies, par défaut j’avais l’état (je peux désélectionner les états qui ne m’intéresse pas) mais si je souhaite avoir un graphique sur la criticité de ces anomalies, je n’ai pas trouvé comment faire.
Pour changer de rubrique à analyser dans l’onglet graphes du module « Anomalies » :
Pour ajouter un graphe Anomalie dans le Dashboard général :
La prise en main me semble un peu plus compliquée (mais c’est également le cas sur ALM) si l’on souhaite créer un dashboard. Par contre l’utilisation de dashboard est très simple.
Plus d’informations : Module Tableau de Bord : http://www.referty.com/#!/module-tableau-de-bord
Conclusion :
Après cette rapide expérience, je trouve que Refertest est un outil instinctif, assez beau et plutôt simple à utiliser et ce malgré quelques petits défauts (de mon point de vue) d’ergonomie.
Je n’ai bien évidemment pas eu le temps d’aller très en profondeur mais je sens qu’il y a de nombreuses possibilités afin que ce produit puisse répondre parfaitement à un besoin précis. Ce que j’ai pu tester pas défaut me semble assez convaincant sans devoir faire ce travail de customisation.
Je n’ai malheureusement pas pu tester tout ce qui était lié à l’automatisation et donc aussi la partie données. La partie orchestration avec Jenkins a par contre été présentée dans un DOJO lors de la STLS du 5 octobre dernier.
D’instinct, je le situerai 1 cran (voir 2 car l’interface de TestLink est vraiment vieillissante) au-dessus de Test Link. Je pense que l’objectif initial, de proposer un entre-deux entre ALM d’HP et TestLink est atteint avec brio.
Pensez à rejoindre le groupe Le métier du test si le test vous intéresse !
N’hésitez pas à me suivre et lire mes autres articles si vous voulez en apprendre plus sur le test ou venir partager vos connaissances
Merci à tous ceux qui mettent « j’aime », partagent ou commentent mes articles
2 Responses
Merci pour ce témoignage à notre produit Refertest .
Je viens de commencer mes premiers pas en teste, après avoir travaillé sur AlM, testlink, j’ai découvert ce bijou français qui est Réfertest!
Avec son interface facile à prendre en main et très conviviale, j’ai vite commencé mes testes (je suis encore en formation Test) !