Table des matières

 1 SSL/TLS: un peu de contexte
 2 Attaques protocolaires liés à la phase de négociation
 3 Nouvelles vulnérabilités sur le Record Protcol
 4 Évolution du modèle de conance: menaces et solutions
 5 2014: une pluie d'erreurs d'implémentation
 6 TLS 1.3: un nouvel espoir ?

SSL/TLS, 3 ans plus tard

Olivier Levillain
olivier.levillain@ssi.gouv.fr
ANSSI
Résumé Depuis quelques années, l'actualité autour de SSL/TLS s'est accélérée. De nombreuses failles ont été mises au jour, qu'il s'agisse de faiblesses conceptuelles concernant la phase de négociation, de vulnérabilités cryptographiques aectant la protection des ux ou d'erreurs d'implémentation.

Un premier état des lieux avait été dressé en 2012. Cet article est composé de trois parties : la première se veut être une actualisation de la présentation de 2012 ; la seconde décrit les nombreuses failles d'implémentation qui ont touché toutes les piles SSL/TLS majeures en 2014 ; enn, la dernière partie présente des pistes pour l'avenir du protocole, avec des éléments d'analyse de TLS 1.3, en cours de dénition à l'IETF.

Mots-clés: SSL/TLS, implémentations, HTTPS

Introduction

SSL (Secure Sockets Layer) et son successeur TLS (Transport Layer Security) sont des protocoles dont l'objectif est de fournir un certain nombre de services pour sécuriser un canal de communication : authentication unilatérale ou mutuelle, condentialité, intégrité et non-rejeu des données échangées de bout en bout.

Cette couche de sécurité peut être appliquée à tout type de canal de communication entre deux parties garantissant la transmission des données de façon ordonnée. En pratique, SSL/TLS est surtout utilisé sur la couche transport TCP, an de proposer des versions sécurisées de protocoles existants (par exemple HTTPS = HTTP + SSL). Il existe une variante de TLS reposant sur une couche de transport non able, DTLS (Datagram Transport Layer Security), qui est peu utilisée en pratique.

En 2012, un article présenté au SSTIC avait dressé un état des lieux de SSL/TLS [35]. Depuis cette date, l'actualité concernant SSL/TLS a continué de faire les gros titres de la presse spécialisée : CRIME, Lucky13, Heartbleed ou POODLE, pour n'en citer que quelques-uns. Ce document a pour objectif de proposer une mise à jour du panorama sur SSL/TLS.

La section 1 de ce document présente rapidement l'historique et le fonctionnement de SSL/TLS. Les section 2, 3 et 4 résument et enrichissent l'état des lieux réalisé en 2012. La section 5 décrit les failles d'implémentations qui ont aecté les principales implémentations de SSL/TLS en 2014. Enn, la section 6 présente des réexion quant aux améliorations possibles, et ce que TLS 1.3, nouvelle version du standard en cours de dénition, peut apporter.

1 SSL/TLS : un peu de contexte

1.1 Historique

SSL (Secure Sockets Layer) est un protocole mis au point par Netscape à partir de 1994 pour permettre l'établissement d'une connexion sécurisée (chirée, intègre et authentiée). La première version publiée est la version 2 [28], rendue disponible en 1995. SSLv2 fut rapidement suivi d'une version 3 [22], qui corrige des failles conceptuelles importantes. Bien qu'il existe un mode de fonctionnement de compatibilité, les messages de la version 3 dièrent de ceux de la version 2.

En 2001, SSL a fait l'objet d'une standardisation par l'IETF (Internet Engineering Task Force) et a été renommé TLS (Transport Layer Security). Contrairement au passage de SSLv2 à SSLv3, TLS n'a pas été l'objet de changements structurels.

Depuis 2001, TLS a connu quelques évolutions. Dès 2003, un cadre permettant des extensions dans le protocole TLS a été décrit [10]. Ce cadre a été réactualisé en 2006 et 2011 [1118]. Ces extensions sont aujourd'hui essentielles pour permettre de faire évoluer le standard de façon souple, mais requièrent l'abandon de la compatibilité avec SSLv2 et SSLv3. La version la plus récente du protocole est actuellement TLS 1.2, publiée en 2008 [16].

1.2 Détails d'une connexion TLS classique

An de permettre l'établissement d'un canal de communication chiré et intègre, les deux parties doivent s'entendre sur les algorithmes et les clés à utiliser. Dans cette étape de négociation, plusieurs messages sont échangés. Un exemple complet est donné à la gure 1. On suppose pour l'exemple que la suite cryptographique négociée est TLS_RSA_WITH_AES_128_CBC_SHA.


PICPIC

Figure 1: Exemple de négociation TLS avec la suite TLS_RSA_WITH_AES_128_CBC_SHA.

ClientHello

La négociation commence avec l'envoi par le client d'un message ClientHello. Dans ce message, le client propose un ensemble de suites cryptographiques qu'il est capable de mettre en uvre. Chacune de ces suites cryptographiques décrivent les mécanismes cryptographiques qui seront utilisés pour les fonctions suivantes :

Ce message contient d'autres paramètres qui doivent être négociés : la version du standard utilisée (SSLv3, TLS 1.0, TLS 1.1 ou TLS 1.2) et le mécanisme de compression éventuellement appliqué sur les données applicatives. Enn, il comporte un champ client_random, un aléa fourni par le client qui sera utilisé pour la dérivation des clés.

Réponse du serveur

Lorsque le serveur reçoit le ClientHello, deux cas peuvent se produire :

Le serveur envoie ensuite son certicat (dans le message Certificate) et envoie un message ServerHelloDone pour indiquer qu'il attend maintenant une réponse du client.

Dans l'exemple donné, on suppose que le serveur choisit la suite TLS_RSA_WITH_AES_128_CBC_SHA :

Fin de la négociation

Une fois la suite choisie et le certicat reçu, le client vérie la chaîne de certication. Si le certicat n'est pas validé, le client émet une alerte qui met n à la connexion. Sinon, il poursuit et envoie un message, ClientKeyExchange, contenant le pre-master secret chiré.

À partir de là, le client et le serveur disposent tous les deux du pre-master secret (le client l'a tiré au hasard, et le serveur peut déchirer le message ClientKeyExchange), ainsi que d'éléments aléatoires publics échangés lors des messages ClientHello et ServerHello. Ces éléments partagés sont alors dérivés pour fournir les clés symétriques qui seront utilisées pour protéger le trac en condentialité et en intégrité.

Des messages ChangeCipherSpec sont échangés pour indiquer l'activation des paramètres (algorithmes et clés) négociés. Les messages Finished sont donc les premiers à être protégés cryptographiquement, et contiennent un haché de l'ensemble des messages échangés pendant la négociation, an de garantir a posteriori l'intégrité de la négociation.

2 Attaques protocolaires liés à la phase de négociation

Commençons par nous intéresser aux problèmes de sécurité liés à la phase de négociation.

2.1 En nir avec SSL

De nombreuses vulnérabilités sont connues sur SSLv2 : négociation à la baisse (downgrade attack), réutilisation des clés pour le chirement et la protection en intégrité, algorithmes cryptographiques faibles... Il est communément accepté que cette version du protocole ne doit plus être utilisée [56].

SSLv3, qui a bientôt 20 ans, a longtemps bénécié d'un sursis. Cependant, les piles SSL/TLS ne supportant que SSLv3 sont aujourd'hui des antiquités ne proposant pas tout le confort moderne apporté par les versions de TLS plus récentes. En eet, de telles implémentations ne supportent pas les extensions (et y sont parfois intolérantes). Étant donné le rôle de plus en plus important des extensions dans la sécurité de SSL/TLS, cette absence est aujourd'hui inacceptable.

Avec POODLE [40], décrit dans la section 3, Bodo Möller et Adam Langley ont donné une nouvelle raison d'abandonner SSLv3. Des changements sont en cours, au sein de l'IETF [4] et dans diérentes implémentations, pour retirer dénitivement le support de SSLv3. Du point de vue de la compatibilité, il existe encore quelques rares serveurs HTTPS accessibles uniquement en SSLv3 ; de même, Internet Explorer 6, dans sa conguration par défaut, ne parle pas TLS 1.0. Il est sans doute largement temps de mettre à jour ces systèmes.

À partir de maintenant, on peut donc cesser de parler de SSL/TLS, pour ne parler que de TLS ! Des voix s'élèvent même à l'IETF pour marquer également TLS 1.0 (voire TLS 1.1) comme obsolète.

SSLv2 et SSLv3 doivent être abandonnés.  

Il existe essentiellement deux grandes familles d'échange de clé :

Les suites orant la forward secrecy doivent être favorisées.  

2.2 Renégociation et reprise de session

En 2009, Ray et Dispensa ont décrit une attaque sur la renégociation [45]. TLS dispose en eet d'un mécanisme permettant, au milieu d'une connexion TLS, de renégocier l'ensemble des paramètres de sécurité. Les seuls usages légitimes de la renégociation sont :

En dehors de ces usages, la renégociation peut en théorie permettre de renégocier la version, la suite cryptographique, ou tout autre paramètre véhiculé par des extensions. Une telle exibilité n'a aucun sens en pratique, et est au contraire à l'origine de plusieurs faiblesses.

La spécication initiale n'orait aucune garantie quant au lien entre les messages échangés avant et après la renégociation : dans certains cas, il était possible de créer une confusion, permettant certaines attaques [60]. Pour cette raison, une extension a été spéciée [48], an d'ajouter ce lien entre une négociation et la précédente.

En 2014, l'équipe INRIA Prosecco a mis au jour une nouvelle attaque, Triple Handshake [8], similaire à l'attaque de 2009. Elle repose non seulement sur l'utilisation de la renégociation, mais également sur la reprise de session. Si un serveur légitime S met à la fois en uvre la renégociation et la reprise de session, un attaquant contrôlant un serveur avec un certicat reconnu par le client C peut injecter un préxe clair choisi au sein d'une connexion entre C et S.


PIC


Figure 2: Première étape de l'attaque Triple Handshake : l'objectif est d'obtenir deux sessions TLS partageant un même master secret. Source : équipe INRIA Prosecco.

La gure 2 décrit la première étape de l'attaque. On suppose que la victime C se connecte à l'attaquant A, qui dispose d'un certicat légitime pour un site donné. En parallèle de la négociation TLS entre C et A, ce dernier entame une connexion vers un serveur légitime S. A réutilise alors le client_random de C auprès de S, puis réutilise le serveur_random de S auprès de C. On suppose de plus que le mécanisme d'échange de clé utilisé pour les deux connexions est le chirement RSA 3 . Comme A est le serveur légitime auquel C se connecte, il peut déchirer le pre-master secret et le réutiliser auprès de S. Le résultat net de cette manipulation est que les deux communications (à gauche et à droite du schéma), partagent un même master secret ! En eet, dans la spécication initiale, la dérivation se fait uniquement à partir du pre-master secret et des aléas transmis par le client et le serveur.


PIC


Figure 3: Seconde étape de l'attaque Triple Handshake : injection de messages clairs choisis au cours d'une connexion entre C et S. Source : équipe INRIA Prosecco.

Une fois que deux sessions TLS partagent un même master secret, plusieurs attaques sont envisageables. L'une d'elle consiste pour l'attaquant à reprendre la session à gauche et à droite, d'injecter des messages clairs auprès de S, puis de forcer une renégociation. C'est le schéma décrit à la gure 3. Ainsi, C commence une connexion avec A, puis reprend une autre session avec S. La renégociation sécurisée ne prenant pas en compte la reprise de session, le cas n'est pas couvert. De plus, avant la publication de l'attaque, la plupart des navigateurs acceptaient sans sourciller un changement d'identité (les certicats présentés par A et S sont diérents) au cours d'une session TLS. Comme pour l'attaque sur la renégociation, l'impact sur la sécurité dépend beaucoup du protocole véhiculé par TLS, mais certains scénarios d'attaque réalistes ont été proposés pour HTTPS.


Schéma de dérivation historique dans TLS :

MS = PRF(PMS, "master secret",

ClientHello.random + ServerHello.random)

Schéma proposé pour contrer le Triple Handshake :

MS = PRF(PMS, "master secret",

H(Handshake messages))

Figure 4: Schémas de dérivation du master secret (MS) à partir du pre-master secret, issu de l'algorithme d'échange de clé. La dérivation utilise une Pseudo-Random Function (PRF), construite à partir de fonctions de hachage.

Pour contrer cette attaque, les chercheurs ont proposé de réviser la manière de dériver le master secret, et donc les clés utilisées pour protéger le trac (voir gure 4). La spécication en cours de standardisation [7] ajoute ainsi l'ensemble des messages passés échangés pendant la négociation à l'étape de dérivation, garantissant que des sessions réalisées avec des serveurs diérents résulteront en des secrets distincts.

Il existe un autre atout important de cette nouvelle méthode de dérivation des clés : les paramètres proposés et négociés sont désormais liés cryptographiquement au master secret, rendant caduques plusieurs autres attaques, comme les cross-protocol attacks, jouant sur la confusion entre diérents messages [5837], ou plus récemment l'attaque FREAK (voir section 5.8).

La correction décrite dans la RFC 5746 doit être mise en uvre sur les clients et les serveurs.  

Lorsque l'extension session-hash sera dénie, elle devra être mise en uvre.  

En attendant, des restrictions doivent être mises en place pour éviter que la vulnérabilité soit exploitable : restrictions sur la renégociation ou la reprise de session, vérication des identités plus strictes par les clients.  

2.3 Mécanisme de fallback

An de pouvoir communiquer avec des implémentations de SSL/TLS non standard, il est courant, dans les navigateurs, lors de l'échec d'une connexion SSL/TLS, de retenter une connexion avec des paramètres diérents. Jusqu'à récemment, on pouvait voir des tentatives utilisant TLS 1.2, puis TLS 1.1, puis TLS 1.0 et enn SSLv3 sans extension.

Le problème principal de ces connexions répétées, c'est qu'un attaquant peut aisément les déclencher, puisque l'échec de connexion n'est pas authentié : il lui sut d'envoyer une alerte TLS en clair ou un RST au niveau TCP. L'ennui, c'est que la nouvelle connexion ne fait plus état des réelles capacités du client : l'attaquant provoque ainsi en pratique une négociation à la baisse.

Il existe normalement des indicateurs pour détecter ce genre de négociation à la baisse, mais ils ne fonctionnent que pour l'échange de clé RSA 4 , et sont parfois mal implémentés 5 .

Cette technique a été présentée lors de la publication de l'attaque POODLE, puisqu'elle permet à un client et un serveur TLS récents de négocier SSLv3 en présence d'un attaquant réseau.

Une proposition pour contrer les fallbacks abusifs vient d'être standardisée [38] :

Dans la mesure du possible, les mécanismes de fallback doivent être abandonnés.  

Si ces mécanismes sont nécessaires, il faut implémenter le mécanisme FALLBACK_SCSV pour contrer les négociations à la baisse.  

3 Nouvelles vulnérabilités sur le Record Protcol

Cette section décrit cinq attaques publiées entre 2011 et 2014 sur la protection des ux applicatifs. Chacune d'entre elles a fait l'objet d'une preuve de concept visant à récupérer un cookie de session HTTPS. La gure 5 présente les diérentes manières dont les données applicatives peuvent être protégées : avec un streamcipher, avec un blockcipher (tous deux couplés avec un MAC) ou avec un chirement authentié.


PIC


Figure 5: Les diérents modes du Record Protocol.

3.1 BEAST


PIC PIC


Figure 6: [À gauche] Utilisation du mode CBC avec IV implicite dans TLS 1.0 : le premier IV est généré lors de la phase de négociation, puis tous les messages sont chirés comme un ux CBC continu. [À droite] Pour tester si P1 = P?, l'attaquant envoie un message clair commençant par P6, puis compare le résultat C6 au bloc C1, observé précédemment.

En 1995, Rogaway a décrit une attaque à clair choisi adaptatif contre le mode CBC, dès que l'IV utilisé est prédictible [50]. En 2002, Möller a remarqué que TLS 1.0 remplissait les conditions [39]. Cependant, l'attaque n'était pas considérée réaliste, étant donné les hypothèses nécessaires (on suppose tout de même que l'attaquant maîtrise partiellement le clair). La situation a changé en 2011 avec BEAST (Browser Exploit Against SSL/TLS), présenté par Duong et Rizzo [17]. La gure 6 (à gauche) détaille l'étape de chirement réalisé lorsque TLS 1.0 utilise le mode CBC.

En utilisant les notations de la gure 6, l'attaquant peut tester si la valeur de P1 est égale à une valeur P? de son choix. En eet, lorsque les deux premiers records ont été envoyés, il peut observer C5, et savoir que ce sera le prochain IV. Pour tester son hypothèse, il lui sut d'envoyer le bloc clair P6 = P? C5 C0 et d'observer C6 = E(P6 C5) = E(P? C0). Si le choix était bon, (c'est-à-dire si P0 vaut P?), alors C6 sera égal à C1. Une telle tentative est décrite sur la droite de la gure.

De plus, pour éviter de devoir deviner un bloc en entier, la preuve de concept présentée utilisait une astuce : aligner le bloc P1 à deviner de manière à ce qu'un seul octet soit inconnu. Par exemple, si l'attaquant sait que P1 vaut " :SESSION_TOKEN= ?", où ? est l'octet inconnu, il lui sut de 128 essais en moyenne pour retrouver l'octet (voire moins, si l'octet à retrouver appartient à un charset contraint).

En pratique, pour envoyer le bloc P6 au moment de son choix, l'attaquant doit pouvoir injecter de manière précise du clair dans le même tunnel que l'application légitime, ce qui nécessite de contourner la Same Origin Policy (SOP 6[5].

La meilleure contre-mesure à cette attaque est de rendre l'IV explicite pour chaque record, comme le spécie TLS 1.1. On peut aussi utiliser un streamcipher pour éviter d'utiliser le mode CBC, mais cela revient en pratique à utiliser RC4, ce qui pose d'autres problèmes (voir section 3.4). Un bricolage consistant à découper les records de longueur n en deux records de longueur 1 et n 1 a été implémenté dans les navigateurs pour rendre l'attaque inecace, même avec TLS 1.0.

3.2 CRIME, TIME et BREACH

En 2012, Duong and Rizzo ont publié une autre attaque intitulée CRIME (Compression Ratio Info-leak Made Easy[49]. Cette fois encore, l'objectif était de récupérer la valeur d'un cookie d'authentication. L'attaque repose sur l'étape de compression, et suppose que l'attaquant peut choisir une partie du texte clair envoyé en même temps que le cookie, par exemple le chemin dans l'URL. L'année suivante, une autre équipe de recherche a présenté TIME (Timing Info-leak Made Easy) attack [55], une variante de CRIME, utilisant une méthode d'observation diérente.

Supposons que SESSION_ID, le cookie de session, est une chaîne hexadécimale, et que l'attaquant peut déclencher des requêtes HTTPS successives en contrôlant une partie de l'URL, par exemple des requêtes de la forme www.target.com/SESSION_ID=X, avec X un caractère hexadécimal. Comme le contrôle sur le clair est très lâche, cette hypothèse ne nécessite pas de violer la Same Origin Policy. Lorsque la requête est compressée, la redondance est maximale lorsque l'attaquant a choisi le bon caractère hexadécimal, ce qui va résulter en une compression plus ecace. Dans certains cas, le record correspondant va être plus petit d'un octet, ce qui est observable 7 .

CRIME et TIME utilisent deux méthodes diérentes pour observer la diérence de taille du record. CRIME suppose que l'attaquant peut observer la taille des paquets chirés sur le réseau. TIME en revanche mesure le délai de transmission des réponses. En eet, en alignant la taille du record avec la taille de la fenêtre TCP, il est possible qu'une variation de taille, même d'un octet, force le client à attendre un ACK TCP avant d'envoyer l'octet restant, ce qui est facilement mesurable depuis le navigateur (un aller-retour avec le serveur, ou Round Time Trip prend de l'ordre de 100 ms).

De manière similaire, les auteurs de l'attaque TIME ont proposé une attaque pour récupérer des éléments secrets envoyés de manière répétée par le serveur, comme les jetons anti-CSRF. En 2013, une adaptation de cette dernière attaque, utilisant la compression HTTP pour récupérer les jetons émis par le serveur, a été présentée : BREACH [43].

La seule contre-mesure ecace pour les attaques utilisant la compression TLS est de désactiver cette fonctionnalité. Pour l'attaque côté serveur reposant sur la compression HTTP, il est nécessaire de restreindre la compression HTTP lors des requêtes émises par un site tiers ; pour cela, il faut vérier l'en-tête Referer. En eet, il est impossible en pratique de désactiver complètement la compression HTTP, sous peine d'augmenter la bande passante nécessaire à de nombreuses communications.

3.3 Lucky 13

Lorsque TLS est utilisé avec un blockcipher, un motif d'intégrité est calculé sur le clair à l'aide d'un HMAC, puis accolé au message clair ; le résultat est ensuite aligné à la taille d'un bloc (padding ou bourrage), et enn, la primitive de chirement par bloc est appelée en mode CBC. Ce paradigme, MAC-then-Encrypt est connu pour permettre des attaques : les Padding Oracle attacks, décrites par Vaudenay en 2002 [57]. Dès qu'un attaquant peut distinguer une erreur liée au padding d'une erreur liée au motif d'intégrité, que ce soit à l'aide d'un message d'erreur accessible à l'attaquant, ou à cause d'une diérence dans le temps de traitement, de l'information fuit, ce qui peut permettre de récupérer le texte clair.


PIC


Figure 7: Chirement CBC, et déchirement dans le cadre d'une attaque par oracle de padding. C, C? (en particulier son dernier octet g) et IV sont connus de l'attaquant.

Lors du déchirement des records, le récepteur doit vérier que le padding est correct : les p derniers octets du bloc doivent avoir la même valeur p 1. Ainsi, les blocs terminant par 00, 0101 ou encore 020202 sont acceptables. Ensuite, le motif d'intégrité est extrait et vérié.

On note P = p0p1pn1 un message clair après padding, et C = c0c1cn1 le chiré correspondant (voir Fig. 7, à gauche). Pour deviner la valeur de pn1, un attaquant peut forger un chiré contenant deux blocs, C?C, avec C le bloc chiré à décrypter, et C? un bloc aléatoire dont le dernier octet est cn1? = g (le déchirement de ce second bloc est décrit à droite sur la gure 7). Si g est égal à pn1 IV n1, alors le résultat du déchirement Ek1(C?C) se terminera par un octet nul, et le message sera considéré valide, ce qui mènera à une erreur sur le motif d'intégrité. Sinon, le padding sera incorrect avec forte probabilité 8 .

Si l'attaquant peut distinguer entre une erreur d'intégrité et une erreur de padding, ce dernier cas permet de détecter le contenu du bloc, octet par octet. En eet, une fois le dernier octet pn1 identié, il sut de recommencer avec un bloc C? terminant par (g)j(pn1 01) pour déterminer pn2 = g 01 IV n2, et ainsi de suite.

Concrètement, l'attaquant doit exploiter des diérences dans le temps de traitement. En eet, si le padding est invalide, le MAC n'est pas vérié et le serveur répond plus rapidement. C'est pourquoi TLS 1.1 [15] indique que les implémentations doivent s'assurer que le temps de traitement des records doit être essentiellement le même dans tous les cas 9 .

De plus, ces attaques mettent n à la connexion TLS, ce qui les rend a priori peu intéressantes. En 2012, des chercheurs de l'université de Londres (Royal Holloway) ont étudié l'applicabilité de l'attaque à DTLS [41]. Datagram TLS (DTLS) [47] est similaire à TLS, mais repose sur UDP et non sur TCP ; comme UDP ne garantit pas un transport des paquets able, les records peuvent être corrompus ou perdus. C'est pourquoi DTLS ne met pas n à la connexion en cas d'erreur de déchirement ou d'intégrité. Les auteurs ont montré qu'une timing attack était possible sur DTLS pour obtenir un oracle distinguant les erreurs d'intégrité des erreurs de padding.

En réalité, les mêmes chercheurs ont montré en 2013 qu'une attaque similaire était possible sur TLS en pratique [2], mais qu'il était nécessaire que le secret à retrouver soit répété dans diérentes sessions TLS (chaque essai cassant la connexion en cours). La preuve de concept a été nommée Lucky 13, où 13 est la taille de l'en-tête intégré au calcul du motif d'intégrité.

3.4 Biais statistiques de RC4

RC4 est un streamcipher conçu par Rivest en 1987. Cette primitive est très simple à implémenter et a de très bonnes performances. C'est pourquoi elle a été intégrée à de nombreux protocoles (dont le WEP pour la protection WiFi, et TLS). Depuis 1995, plusieurs biais statistiques ont été identiés sur les premiers octets de la suite chirante produite par RC4. Ces biais ont notamment mené à des attaques très ecaces sur WEP [54].

En 2013, deux équipes de recherche ont présenté des attaques pratiques permettant de retrouver un texte clair s'il avait été chiré un grand nombre de fois avec diérentes clés [311] (cas classique d'un cookie de session HTTPS). Une des attaques présentées repose sur des biais très forts des 256 premiers octets de la suite chirante. Les chercheurs ont en eet produit 245 suites chirantes correspondant à des clés diérentes pour obtenir des statistiques de référence. Ensuite, en obtenant un grand nombre de chirés d'un même clair avec des clés diérentes, il est possible de retrouver le clair en minimisant la distance entre le prol statistique de référence et le prol de la cible. En fonction de la position dans la suite chirante, ce grand nombre varie de 224 à 232 messages.

La gure 8 montre un exemple de distribution sur le 50e octet de clair dont on sait qu'il vaut "A", "X" ou "." 10 . Le premier schéma décrit le prol de référence (Z50). Après avoir récolté 230 chirés de A (0x41) à la position 50, les petits graphes montrent quelle aurait été la distribution de la suite chirante, en faisant l'hypothèse que le clair était "A" (0x41), "X" (0x58) ou "." (0x2e). Il apparaît clairement que le premier est le plus proche de la distribution de référence (les pics sont alignés), ce qui fait de A le meilleur candidat.

L'attaque est compliquée à implémenter, puisqu'elle requiert de nombreuses connexions TLS, et que seules les données placées au début du ux peuvent être retrouvées. Pour aller plus loin, les chercheurs ont utilisés d'autres biais sur des octets consécutifs de la suite chirante, décrits par Fluhrer et McGrew [21]. L'attaque résultant de l'exploitation de ces biais requiert plus de données échangées, mais pas nécessairement au début de la connexion HTTPS, rendant une preuve de concept réaliste.


PIC
PIC

PIC

PIC


Figure 8: [À gauche] Distribution statistique de Z50, le 50e octet de la suite chirante. Source [1]. [À droite] Reconstruction statistique de Z50 à partir de 230 messages, en supposant que le caractère clair est A, X ou .).

Depuis, de nouveaux travaux ont permis d'améliorer l'attaque [23] : la récupération de mots de passe peut désormais se faire avec 226 connexions. En parallèle, Mantin a montré début 2015 qu'une attaque théorique qu'il avait présenté 13 ans plus tôt était exploitable sur TLS [32] : le résultat permet, à partir de 224 messages, d'obtenir de l'information sur certains bits de la suite chirante. Enn, l'IETF a publié début 2015 une RFC interdisant l'utilisation de RC4 dans TLS [42], pour envoyer un signal fort quant aux dangers de cet algorithme.

3.5 POODLE

En octobre 2014, Möller, Duong et Kotowicz ont présenté POODLE (Padding Oracle on Downgraded Legacy Encryption[40], une nouvelle attaque sur le padding CBC utilisé dans SSLv3. En eet, SSLv3 utilise une méthode de padding diérente de TLS : quand n octets doivent être ajoutés pour compléter un bloc, seul le dernier octet du bloc doit contenir n 1, mais les autres octets de padding peuvent prendre des valeurs arbitraires. Un attaquant peut exploiter ce laxisme dans la vérication pour obtenir un oracle de padding.


PIC


Figure 9: Exemple d'une attaque POODLE, avec une taille de bloc de 8 octets.

Supposons que l'attaquant peut déclencher des requêtes successives à un site, en mode CBC avec SSLv3. En particulier, comme pour CRIME, on suppose que l'attaquant contrôle une partie de l'URL. Il lui est donc possible d'aligner la n du cookie d'authentication sur une n de bloc. De plus, on suppose que l'attaquant peut intégrer un corps arbitraire à la requête émise (qui se situera après les en-têtes HTTP) ; il est donc capable d'aligner le message clair (en incluant le MAC) avec une autre n de bloc (voir la gure 9). Ainsi, l'attaquant sait qu'un bloc entier va devoir être ajouté lors du padding. Or, avec SSLv3, la seule contrainte sur ce bloc clair est qu'il doit nit par un octet à n 1, où n est la taille du bloc.

Une fois la requête ainsi forgée transmise par le navigateur, l'attaquant intercepte le message émis et le modie. Il remplace le bloc nal (qui ne contient que du padding par le bloc dont il souhaite deviner le dernier octet, comme le montre la gure. Si le déchirement par le serveur mène à une valeur correcte (si le dernier octet vaut n 1), le reste du bloc est ignoré et le record est accepté par le serveur. L'attaquant peut donc en déduire que Ek1(Ci) Cn1 vaut n 1, et donc que le dernier octet du bloc clair Pi vaut Cn1 Ci1 (n 1). Si le padding ne se termine pas par n 1, le chirement échouera lors de la vérication du MAC, et mettra n à la session. L'attaquant peut alors réessayer, avec une nouvelle chance de succès puisque le bloc chiré Cn1 randomise le déchirement du dernier bloc. Ainsi, chaque essai a une probabilité de 28 : chaque octet du cookie peut être retrouvé avec en moyenne 256 requêtes.

En théorie, l'attaque ne fonctionne qu'avec SSLv3, ce qui implique dans le cas général que l'attaquant doit commencer par forcer le client à négocier cette vieille version du protocole (les mécanismes de fallback ont été décrits dans la section 2.3). En pratique, certaines implémentations TLS 1.0 ne suivent pas la norme et réutilisent le padding SSLv3, les rendant vulnérables à la même attaque 11 .

3.6 Discussion sur le Record Protocol

Concernant le mode CBC, il est intéressant de se rendre compte que toutes les attaques (BEAST, Lucky 13 et POODLE) avaient été décrites en 2001 par Bodo Möller dans un chier texte disponible sur le site d'OpenSSL 12 ). Il a cependant fallu que les preuves de concept soient publiées pour que des mesures soient prises.

Il ressort de toutes ces attaques que RC4 doit être évité, ainsi que le mode CBC. L'ennui, c'est que seul TLS 1.2 ore une alternative à ces deux modes de protection du Record Protocol, avec le mode combiné GCM (ou CCM). Il est donc essentiel d'accélérer la transition vers TLS 1.2. En eet, une autre solution est d'utiliser des rustines complexes (le lecteur intéressé pourra par exemple lire le billet de blog d'Adam Langley décrivant le déchirement en temps constant du mode CBC dans OpenSSL 13 . Récemment, une extension TLS pour activer le paradigme Encrypt-then-MAC (qui contre ecacement les attaques contre le padding CBC) a été publiée [26], mais elle promet d'être aussi dicile à déployer que TLS 1.2.

Enn, un mécanisme de défense en profondeur concernant HTTPS serait d'éviter la répétition des secrets transmis au sein de sessions TLS. C'est l'objet de travaux de recherche présentés lors de la conférence ASIACCS [36].

TLS 1.2 doit être déployé et privilégié dans les négociations.  

La compression, RC4 et SSLv3 ne doivent plus être utilisés.  

Si TLS 1.2 ne peut être négocié, des mécanismes spéciques doivent être mis en uvre pour prendre en compte les attaques BEAST et Lucky 13 : éclater les records (1=n 1), déchirement CBC en temps constant.  

4 Évolution du modèle de conance : menaces et solutions

4.1 Problème de validation de la chaîne de certicats

L'histoire des erreurs d'implémentations lors de la vérication de la chaîne de certicats est longue... et a fait l'objet de nouvelles vulnérabilités en 2014 (voir par exemple la section 5.1).

Un autre problème majeur lié à la vérication des certicats est l'omission pure et simple de l'appel aux fonctions correspondantes. Des travaux [20] ont montré qu'une part importante des applications sur smartphones ne valident pas la chaîne de certicat présentée par le serveur, annulant toute garantie quant à l'identité du serveur : un attaquant réseau actif peut alors répondre à la place du serveur légitime. Le problème est parfois plus subtil, puisque c'est l'API qui est mal utilisée [24] : avec libcurl, mettre CURLOPT_SSL_VERIFYHOST à 2 provoque l'échec des connexions non authentiées  alors que la valeur 1 (ou TRUE dans certains cas) correspondait à une option de debug acceptant en pratique toutes les connexions... D'autres API sourent de problèmes similaires, comme en témoigne l'exemple de GnuTLS de la section 5.2.

Lors du développement d'une application mettant en uvre TLS, il faut s'assurer que la validation des certicats est eective, en consultant la documentation des bibliothèques utilisées, mais surtout en testant que des connexions devant échouer échouent.  

4.2 Cryptographie faible

Les chaînes de certication mettent en uvre de la cryptographie asymétrique. Pour garantir un niveau de sécurité acceptable, il faut utiliser des primitives et des tailles de clés conformes à l'état de l'art [3]. En particulier, les clés RSA doivent avoir une taille supérieure à 2048 bits. Ainsi, plusieurs éditeurs logiciels (dont Google et Mozilla) prévoient de rejeter à terme les certicats avec des clés RSA 1024 bits.

Du côté des fonctions de hachage, on savait MD5 faible depuis 2005 [5934], avec une application concrète en 2009 ayant permis la signature frauduleuse d'une autorité de certication intermédiaire [53]. Depuis 2005, SHA-1 est aussi considérée comme aaiblie, et des résultats récents montrent que les premières collisions SHA-1 ne devraient plus tarder 14 . Une première décision, à l'initiative de Microsoft, a été prise par le CA/B Forum pour bannir SHA-1 pour les certicats expirant après n 2016 15 . Parmi les mesures concrètes mises en place, Google a annoncé une série de mesures 16 consistant à acher des avertissements de plus en plus visibles pour les certicats expirant au-delà du 31 décembre 2015 (ce qui correspond à une politique plus sévère que la décision prise par le CA/B Forum). Les politiques de Microsoft 17 et de Mozilla 18 sont également disponibles en ligne.

Une clé RSA devrait aujourd'hui faire au moins 2048 bits.
Les algorithmes de hachage MD5 et SHA-1 doivent être proscrits pour toute nouvelle signature.  

Dans le cas de SHA-1, il faut dès à présent renouveler tous les certicats expirant au-delà du 31 décembre 2015.  

4.3 Détection et reprise sur incident lors d'une émission d'un certicat illégitime

Depuis 2011, plusieurs incidents liés à l'émission de certicats illégitimes ont été rendus publics. Certains résultent d'attaques vite détectées (Comodo en 2011), ou d'attaques ayant mené à une exploitation réelle permettant l'usurpation de certains sites web (Diginotar en 2011 également). D'autres sont liés à des erreurs humaines lors de l'utilisation d'autorités intermédiaires dépendant d'autorités reconnues par les navigateurs (Türktrust en 2012, IGC/A en 2013).

Bien que le problème soit identié, les solutions permettant de détecter, mais surtout de corriger ce genre d'incidents tardent à venir. La réponse classique à ce problème est la révocation, qui peut revêtir trois formes dans le cas de TLS :

Enn, un défaut commun à toutes ces méthodes est qu'en général, la révocation est facultative : si les informations de révocation ne sont pas disponibles, le client va généralement silencieusement supposer que tout va bien. C'est pourquoi lors d'incidents avérés, la seule solution ecace est d'ajouter des certicats dans une liste noire codée en dur dans les clients.

Depuis 2011, des propositions ont été faites pour améliorer la situation.

Gestion des CRL via les mises à jour logicielles

Une méthode déployée par Google dans ses navigateurs est l'utilisation de listes de révocation compilées en amont, puis transmises aux navigateurs par un système de mises à jour régulières. Ces CRLSets19 peuvent également contenir des informations pour la révocation en urgence de certicats de serveurs ou d'autorités.

La démarche permet une détection et un blocage ecace des certicats illégitimes, mais uniquement sur le périmètre concerné par les listes collectées par Google. En eet, il est impossible d'être exhaustif dans ce domaine, puisque le graphe des autorités pouvant émettre des CRL est immense, y compris en ne considérant que les autorités de conance dans les navigateurs. De plus, un CRLSet avec une large couverture pourrait atteindre une taille énorme. C'est pourquoi la taille des CRL incluses est limitée à 250 Ko. En cas de dépassement, la CRL en question est retirée de la mise à jour, et l'autorité concernée informée.

Depuis mars 2015, les produits Mozilla embarquent également une telle liste, appelée OneCRL20 , mais elle est pour l'instant limitée à la révocation des autorités intermédiaires, pour garder une taille raisonnable.

Il apparaît donc que cette solution est très partielle, mais sur le périmètre couvert, elle permet un déploiement able, éventuellement en urgence, d'informations sur la révocation.

Généralisation de l'épinglage OCSP

OCSP Stapling est un mécanisme de révocation qui semble pertinent et ecace. Cependant, tant qu'il s'agit d'un mécanisme optionnel, il ne peut être utilisé de manière robuste et ecace. Adam Langley a ainsi comparé le mode fail-safe open (en cas d'échec, on laisse ouvert) actuellement mis en uvre pour la révocation à une ceinture de sécurité qui se détachait lors d'un impact.

Pour permettre à certains sites d'annoncer qu'ils supportent l'OCSP Stapling, et que l'absence de cette extension TLS devrait être traitée comme une erreur fatale, une extension X.509 a été proposée [27] 21  : si un client rencontre l'extension dans un certicat X.509 sans que la connexion n'ait fait l'objet d'un épinglage OCSP, il faut mettre n à la connexion.

Ainsi, seuls les sites annonçant dans leur certicat leur intention de supporter la fonctionnalité sont traités de manière sécurisée (et bloquante en cas d'erreur). Ce mécanisme est utile à combiner avec HSTS et HPKP (voir plus loin).

DANE

Une autre solution, standardisée en août 2012 par l'IETF est DANE (DNS-Based Authentication of Named Entities[30]). Ce nouveau protocole repose sur DNS pour transmettre des informations sur les certicats attendus pour une connexion TLS donnée, via de nouveaux enregistrements intitulés TLSA.

DANE ore diérents paramètres sur la manière de désigner un certicat TLS donné. L'enregistrement peut porter sur le certicat serveur ou sur le certicat d'une autorité de la chaîne. De même, l'élément transmis par DANE peut être le certicat complet (ou son haché) ou bien la clé publique embarquée (ou son haché).

Il existe deux positionnements possibles de DANE vis-à-vis des IGC classiques TLS : soit en complément des vérications actuelles, soit en remplacement. Dans le premier cas, l'idée est de contraindre encore plus la vérication, au prix d'une requête DNS(SEC) supplémentaire. Le second cas permet de sortir du modèle de conance classique TLS/HTTPS, ce qui permet en théorie le déploiement de sites HTTPS sans avoir besoin d'acheter un certicat.

Dans les deux cas, la question de l'intégrité de l'enregistrement TLSA est essentielle, et doit reposer sur DNSSEC, ce qui n'est pas sans poser de nombreuses interrogations : déploiement du standard incertain, cryptographie limitée en pratique à RSA 1024, question de la conance dans les clés racines, accès à des résolveurs validant de conance et sécurisation du dernier kilomètre. Des discussions actuelles, il semble que DANE ne soit pas une solution viable à court ou moyen terme pour le monde HTTPS 22 , d'autant plus que certains acteurs majeurs tels que Google 23 ne comptent pas l'implémenter.

En pratique, DANE semble applicable au monde SMTP, pour permettre aux entités déployant DNSSEC d'améliorer la situation actuelle en imposant l'usage de TLS là où la connexion en clair est aujourd'hui une solution de repli universellement déployée.

Restrictions X.509 appliquées aux autorités

Le standard X.509 permet de restreindre la portée d'une autorité : l'autorité émettrice d'un certicat d'autorité peut embarquer dans le certicat émis des extensions contraignant le champ d'application des certicats. Il est alors possible de détecter et bloquer les certicats sortant du champ de compétence d'une autorité.

Par exemple, il est possible de restreindre une autorité à un ensemble de noms de domaine. Ce mécanisme a par exemple été mis en uvre en 2014 pour que l'IGC/A, autorité destinée aux sites de l'administration française, ne soit valide que pour les domaines en .fr, .re, et autres territoires d'outre-mer français.

Cependant, cette solution ne peut s'appliquer de manière générale à l'ensemble des autorités de conance des navigateurs, puisque les acteurs commerciaux peuvent légitimement signer des certicats pour n'importe quel nom de domaine.

Certicate Pinning, HSTS et HPKP

Le mécanisme habituellement appelé Certicate Pinning consiste à xer un des certicats attendus dans la chaîne de certication émise par un site donné. En  épinglant  le certicat du serveur, il est ainsi possible de garantir qu'un certicat illégitime sera refusé. De même, il est possible d'épingler une autorité (racine ou intermédiaire), pour limiter les émetteurs acceptables pour un site donné.

Plusieurs implémentations existent déjà :

En 2012, l'en-tête HTTP Strict Transport Security (HSTS [29]) a été standardisé. Si un site web contacté en HTTPS présentait cet en-tête, il lui était possible d'indiquer au navigateur que toutes les communications futures le concernant devraient être faite en HTTPS (pendant une certaine durée), sans possibilité de contourner une erreur éventuelle. Ce mode présente des risques, puisqu'en cas d'erreur de conguration il est possible de rendre un site inaccessible, mais il apporte aussi des garanties fortes sur l'utilisation de communications sécurisées. Il existe même certaines listes pré-chargées dans les navigateurs pour appliquer ce mode dès la première connexion sur certains sites. Bien entendu, HSTS est spécique à HTTPS, et dicilement généralisable à d'autres protocoles reposant sur TLS.

Une idée similaire a été proposée pour mettre en uvre le Certicate Pinning à l'échelle d'internet : HTTP Public Key Pinning (HPKP [19]). Lorsqu'un serveur présente l'extension dans un canal HTTPS correctement authentié, il peut indiquer au navigateur les informations à épingler pour les usages futurs. An de limiter les risques d'erreur de conguration, le navigateur doit vérier qu'au moins un des pin correspond à la chaîne de certication de la session TLS courante, et qu'au moins un pin ne lui correspond pas (an d'inciter les administrateurs à disposer de chaînes de certication de secours). De plus, il existe un mode report-only dans lequel le navigateur n'applique pas la restriction, mais se contente de rapporter les écarts constatés avec la politique.

Ce mécanisme permet facilement d'imposer des restrictions supplémentaires selon la philosophie TOFU, mais il est également possible de pré-charger tous les pins visibles en parcourant une liste de sites, comme le prévoient Google et Mozilla. HPKP a également été pensé pour permettre une mise en place progressive, avec une phase de test de la politique. Cependant, pour de nombreux sites, la protection supplémentaire n'est oerte qu'après une première connexion fructueuse.

Certicate Transparency

Certicate Transparency (CT [33]) est un projet poussé par Google pour rendre les certicats émis par une autorité plus visibles. L'idée est en particulier de permettre au propriétaire d'un domaine donné de pouvoir vérier de manière rapide et robuste quels sont les certicats qui ont été émis pour son nom de domaine.

Pour cela, Certicate Transparency utilise des certicate logs, des journaux publics, en append-only, dont l'intégrité est garantie cryptographiquement (la structure utilisée est un arbre de Merkle [44]). An que ces journaux deviennent obligatoires pour la publication des certicats, l'idée est que les navigateurs vérient la présence d'une preuve que le certicat appartient bien à un journal. Cette preuve peut être transmise à l'aide d'une extension X.509, via une extension TLS ou au travers de l'OCSP Stapling. Il devient alors possible de s'assurer qu'un certicat émis est présent dans l'arbre (et donc visible de tous) avant de l'utiliser.

Actuellement, Google exige des autorités de certications d'implémenter CT pour les certicats EV dans Chrome. Bien que cette solution soit présentée comme la solution aux problèmes de certicats sur Internet, la technologie est encore jeune, et peu d'acteurs (en particulier chez les autorités de certication) ont à ce jour accepté de se lancer pleinement dans l'aventure, qui nécessite le déploiement de logs, mais aussi de services de vérication pour que la sécurité soit eectivement améliorée. Or c'est l'adoption massive qui peut seule donner du sens à ce mécanisme. Enn, CT ne sert qu'à la détection, le volet révocation étant un autre projet à venir (Revocation Transparency24 ).

Ainsi, face aux problèmes complexes de la détection de certicats non légitimes et de la reprise sur ces incidents, les solutions sont toujours en cours de dénition/standardisation. Si certaines idées émises dès 2011 ont rapidement disparu (Sovereign Keys de l'EFF 25 , Convergence de Moxie Marlinspike 26 , ou encore TACK proposé par Trevor Perrin 27 ), le développement et le déploiement avance pour d'autres idées.

Étant donné le modèle de conance HTTPS, où la question est la plus délicate à résoudre, une solution concrète devra sans doute reposer sur plusieurs mécanismes complémentaires, à la manière de ce que Mozilla a proposé courant 2014 28  : des listes de révocation compilées et transmises par mise à jour, l'utilisation de l'extension Must-Staple, HTTP Strict Transport Security et HTTP Public Key Pinning, les certicats à durée de vie courte, etc.

5 2014 : une pluie d'erreurs d'implémentation

5.1 CVE-2014-1266 : goto fail Apple

En février 2014, Apple a publié une annonce alarmante, indiquant que certaines versions de ses systèmes d'exploitation avait une faille majeure dans TLS : il était possible de contourner l'authentication des serveurs.

La faille fut vite identiée : à cause d'une ligne goto fail répétée dans le code (voir gure 10), une bonne partie de la fonction SSLVerifySignedServerKeyExchange était réduite à du code mort. Ainsi, lorsqu'un client négociait certaines suites cryptographiques (DHE+ECDHE), la signature des paramètres échangés par le serveur n'était pas vraiment vériée par le client.

Un attaquant pouvait alors simplement répondre à la place d'un serveur légitime, forcer l'utilisation d'une suite vulnérable, présenter les certicats légitimes, et envoyer un message ServerKeyExchange de son choix, puisque la signature n'était pas vériée : du point de vue du client, le certicat du serveur était correctement vérié, mais pas les paramètres Die-Hellman.


SSLVerifySignedServerKeyExchange( ... )  
static OSStatus  
{  
    OSStatus        err;  
    ...  
 
    if ((err = SSLHashSHA1.update(&hashCtx, &serverRandom)) != 0)  
        goto fail;  
    if ((err = SSLHashSHA1.update(&hashCtx, &signedParams)) != 0)  
        goto fail;  
        goto fail;  
    if ((err = SSLHashSHA1.final(&hashCtx, &hashOut)) != 0)  
        goto fail;  
    ...  
 
fail:  
    SSLFreeBuffer(&signedHashes);  
    SSLFreeBuffer(&hashCtx);  
    return err;  
}


Figure 10: Code vulnérable à l'origine du goto fail Apple.

Ce problème a été corrigé rapidement, mais il a montré que le code en question ne faisait pas l'objet de simples vérications comme la détection de code mort. Certaines voix se sont alors élevées pour promouvoir de meilleurs outils de compilation ou d'analyse, voire l'utilisation de langages alternatifs au C.

5.2 CVE-2014-0092 : goto fail GnuTLS

Quelques jours plus tard, GnuTLS annonce une faille dans le code de vérication des signatures. Cette fois, le problème est (un peu) plus subtil : le problème vient des fonctions check_if_ca et _gnutls_verify_certificate2, censées renvoyer si un certicat correspond à une autorité pour la première, et le résultat de la vérication d'une signature. Bien que la documentation de ces fonctions indiquait qu'elles renvoyaient un booléen (c'est-à-dire 0 ou 1), la valeur de retour pouvait prendre trois valeurs :


/*  
* Returns only 0 or 1. If 1 it means that the certificate  
* was successfuly verified. [...]  
*/  
static int _gnutls_verify_certificate2( ... )  
{  
    ...  
 
    result = _gnutls_x509_get_signed_data( ... );  
    if (result < 0) {  
        gnutls_assert();  
        goto cleanup;  
    }  
 
    ...  
 
cleanup:  
    if (result >= 0 && func)  
        func(cert, issuer, NULL, out);  
    _gnutls_free_datum(&cert_signed_data);  
    _gnutls_free_datum(&cert_signature);  
 
    return result;  
}


Figure 11: Certaines fonctions (ici, _gnutls_verify_certificate2) pouvaient retourner une valeur négative en cas d'erreur de parsing, contrairement à ce que disaient les commentaires.

Ainsi, certaines fonctions utilisant ces routines internes, telles que gnutls_x509_crt_check_issuer, acceptaient non seulement les certicat avec une signature correcte, mais également certains certicats mal formés ! En eet, comme le montre la gure 12, seul le cas ret == 0 menait à un rejet du certicat.


    ret = _gnutls_verify_certificate2( ... );  
    if (ret == 0) {  
        /* if the last certificate in the certificate  
         * list is invalid, then the certificate is not  
         * trusted.  
         */  
        gnutls_assert();  
        status |= output;  
        status |= GNUTLS_CERT_INVALID;  
        return status;  
    }


Figure 12: Appel à la fonction _gnutls_verify_certificate2 depuis la fonction gnutls_x509_crt_check_issuer : si la fonction appelée renvoie -1, l'exécution continue et le certicat est accepté.

Les développeurs ont corrigé la logique nécessaire, d'une part en s'assurant que les fonctions appelées renvoient eectivement uniquement 0 ou 1 (comme la documentation l'indiquait) et d'autre part pour que les fonctions appelant ces routines soient plus strictes sur le résultat obtenu.

Il est intéressant de remarquer qu'un bug similaire avait été trouvé dans OpenSSL en 2008 (CVE-2008-5077). Là encore, la question des outils et du langage a été soulevée.

5.3 CVE-2014-0160 : Heartbleed

Le 8 avril 2014, une nouvelle vulnérabilité concernant TLS a été publiée, à l'aide d'un site web avec un logo et  une marque  : Heartbleed. La vulnérabilité repose sur une mauvaise implémentation de l'extension TLS Heartbeat.

Cette extension ajoute à TLS un moyen d'échanger des messages d'un nouveau type, auxquels une implémentation conforme doit répondre en répétant le message reçu. Un tel mécanisme permet en théorie deux choses :

En réalité, ces deux avantages sont surtout pertinents pour DTLS, la version datagramme de TLS, que l'on rencontre parfois au-dessus du protocole UDP. Cependant, l'extension Heartbeat a été intégrée au code d'OpenSSL pour DTLS et TLS, par défaut... le 31 décembre 2011 29 .

La vulnérabilité en elle-même est terriblement simple : face à un message HeartbeatRequest annonçant un contenu plus long que le message envoyé, une implémentation vulnérable va remplir le message HeartbeatResponse avec le contenu reçu, puis compléter avec ce qui se trouve en mémoire 30 .

L'impact, initialement dicile à préciser, s'est révélé critique : en utilisant cette vulnérabilité sur un serveur, il est possible d'espionner des communications entre d'autres clients et le serveur. L'ensemble des données allouées sur le tas peuvent ainsi être récupérées : le contenu déchiré des communications TLS (dont les cookies et autres mots de passe), mais aussi tout élément interne au service, tel que sa clé privée.

5.4 CVE-2014-0224 : EarlyCCS

En juin 2014, une attaque sur la machine a état d'OpenSSL a été publiée par Masashi Kikuchi 31 . Un attaquant situé entre un client et un serveur OpenSSL, tous les deux vulnérables pouvait alors réaliser une attaque de type man-in-the-middle, en forçant les deux interlocuteurs à utiliser des clés faibles. Le schéma 13 décrit l'attaque.


PIC


Figure 13: Description de l'attaque EarlyCCS. ms signie master secret et SNXX désigne le numéro du record transmis. Il y a en pratique quatre numéros à retenir : entre le client et l'attaquant et entre l'attaquant et le serveur (à chaque fois un compteur pour chaque sens). Source : équipe INRIA Prosecco.

L'idée essentielle de l'attaque est d'exploiter la machine à état d'OpenSSL qui accepte de recevoir un message ChangeCipherSpec un peu plus tôt que prévu (lorsque le second message ChangeCipherSpec sera reçu, il sera simplement ignoré), que ce soit dans son comportement client ou serveur. Comme aucun master secret n'est déni, les clés sont générées à partir d'un pre-master secret nul et des aléas échangés précédemment, qui sont publics. Il s'agit ensuite pour l'attaquant de garder chaque connexion synchronisée comme il se doit, en tenant compte des canaux protégés avec les clés faibles dans un seul sens, ainsi que des compteurs pour les motifs d'intégrité.

Enn, pour que la négociation se termine correctement, il faut pouvoir transmettre au client et au serveur un message Finished correct. Or ce dernier doit contenir un haché du master secret qui a nalement été correctement négocié. C'est la raison pour laquelle il est nécessaire que le client et le serveur soient vulnérables pour pouvoir monter l'attaque.

2015 nous a depuis appris qu'il existait d'autres problèmes liés à la machine à état de diverses piles TLS (voir la section 5.8 plus bas).

5.5 CVE-2014-3511 : OpenSSL downgrade attack

En juillet 2014, David Benjamin et Adam Langley ont montré qu'OpenSSL avait une réaction étrange face à un ClientHello trop fragmenté. En eet, la spécication TLS autorise à éclater les messages de manière essentiellement arbitraire 32 .

Cependant, si OpenSSL ne trouvait pas susamment d'information dans le premier fragment d'un ClientHello, la version négociée était systématiquement TLS 1.0. En pratique, OpenSSL a en eet besoin d'avoir les 6 premiers octets du ClientHello pour déterminer la version proposée par le client (voir gure 14).






Couche
Champ
Taille
Valeur




Record Type 1 16 (Handshake)



Version 2 03 01 (TLS 1.0)



Longueur2 longueur du record




Handshake Type 1 01 (ClientHello)



Longueur3 longueur du message




ClientHelloVersion 2 03 02 (TLS 1.1)



... ... ...





Figure 14: Contenu des premiers octets d'un ClientHello standard. C'est la version portée par la couche Handshake qui sert à la négociation.

Il est important de constater qu'un message Handshake peut légitimement être fragmenté. En eet, la longueur d'un tel message est encodée sur 3 octets, alors qu'un record a au maximum une longueur de 16 Ko.

La version actuelle d'OpenSSL rejette désormais purement et simplement ces ClientHello fragmentés, ce qui est incorrect vis-à-vis de la spécication, mais l'alternative est décrite comme trop dicile à implémenter. Cette attaque, tout comme la précédente, montre que la complexité de TLS, combinée avec les besoins de supporter plusieurs versions du protocole, pose de nombreux problèmes aux développeurs.

5.6 CVE-2014-1568 : NSS/CyaSSL/PolarSSL Signature Forgery

En septembre, une nouvelle vulnérabilité client permettant de contourner l'authentication d'un serveur a été publiée, cette fois concernant NSS, la bibliothèque cryptographique de Firefox 33 . La faille se situe ici dans le décodage ASN.1 DER des signatures, et repose sur trois éléments :

Dans TLS, les signatures RSA suivent le standard PKCS#1 v1.5 : pour signer un message m avec la clé RSA privée (N;d) et l'algorithme de hachage H, on suit les étapes suivantes :


Format PKCS#1 v1.5 :

n bits !







00

01

ff

...

ff

00

DigestInfo







8+ octets !

DigestInfo :






30 2D
30 09 04 20 <hash>
06 05 <idSHA256>05 00





Seq.
Seq.
Algorithme et paramètres
Haché

Figure 15: Format PKCS#1 v1.5. Seq. est une séquence ASN.1, les valeurs en italiques représentent des longueurs, et est le haché (ici SHA-256) du message à signer.

Une première attaque avait été proposée en 2006 par Bleichenbacher, pour abuser des implémentations ne vériant pas l'absence de données à la suite du bloc DigestInfo. Ainsi, dans le cas d'un exposant public égal à 3, il était possible de forger trivialement une signature ayant la forme indiquée à la gure 16. Il sut alors de remplir les octets réservés en n de message (le champ garbage du schéma) par des zéros : on obtient un message m. Ensuite, on note s la partie entière supérieure de la racine cubique réelle de m ; si n est susamment grand, s3 sera égale à m sur la première partie du message, au moins jusqu'à DigestInfo.


n bits !








00

01

ff

...

ff

00

DigestInfogarbage








p octets !

Figure 16: Exemple d'un message PKCS#1 v1.5 mal formaté. En cas de parsing laxiste, ce message facilement forgeable est accepté. Certaines implémentations autorisent de plus p a être réduit à 0, ce qui laisse plus de place en n de message.

La vulnérabilité mise au jour par l'équipe INRIA Prosecco est plus subtile, puisqu'elle repose sur une représentation non canonique du bloc DigestInfo. Ainsi, au lieu de représenter la longueur du haché SHA-1 par un simple octet à 0x14, on peut utiliser une représentation alternative, plus longue, normalement interdite en DER, 8f 00 .. 00 1435 .

S'il n'y avait que cela, la vulnérabilité serait complexe à exploiter, mais en réalité, les premiers octets encodant la longueur peuvent être arbitraires, car la lecture d'un entier sur plus de 4 octets provoque un débordement d'entier : dans l'exemple donné, sur les 15 octets, les 11 premiers peuvent donc servir de variable d'ajustement pour les calculs.

Là encore, pour que les calculs soient réalisables, un exposant public valant 3 est nécessaire en pratique.

Concernant le traitement des signatures PKCS#1 v1.5, le correctif classiquement admis est d'inverser la méthode de vérication : plutôt que de décoder le bloc DigestInfo et de vérier que le haché obtenu est le bon, il est plus sûr de produire le DigestInfo attendu (qui est censé être canonique) et de vérier que les représentations concrètes sont similaires.

5.7 CVE-2014-6321 : Exécution de code arbitraire dans SChannel

En novembre, Microsoft a publié un bulletin d'alerte, MS14-066, comportant plusieurs vulnérabilités. L'une d'elles concernait SChannel, l'implémentation TLS de Microsoft, et pouvait mener à de l'exécution de code arbitraire.

La faille se situait dans la fonction DecodeSigAndReverse, responsable de parser la signature ECDSA réalisée dans le cas d'une authentication client par certicat. En théorie, seul les serveurs congurés pour accepter les certicats client sont censés envoyer un message CertificateRequest, mais SChannel acceptait les messages Certificate et CertificateVerify des clients, y compris lorsque le serveur n'avait rien demandé 36  !

Dans le cas d'un certicat utilisant les courbes elliptiques, il est nécessaire, avant de pouvoir interpréter la signature, de déterminer la courbe sur laquelle se fait la signature. La courbe en question est décrite dans la clé publique qui sert à vérier la signature, soit sous forme implicite (certaines courbes ont des OID ASN.1 prédénis, comme 1.3.132.0.34 pour secp384r1), soit de manière explicite (le corps sur laquelle la courbe est construite, ainsi que les paramètres de l'équation). En particulier, cette description donne la taille des coordonnées utilisées. Ensuite, lire la signature revient à extraire l'abscisse et l'ordonnée d'un point de la courbe.

Dans le cas présent, le code alloue des tableaux pour accueillir les coordonnées de la signature, en se basant sur la description de la courbe, puis réalise la lecture des coordonnées depuis la signature en utilisant la longueur des entiers ASN.1, sans vérier la cohérence avec la taille précédente. On peut donc simplement déclencher un débordement en forgeant une fausse signature avec des coordonnées trop longues

Il est donc possible d'écraser une partie du tas en jouant sur les longueurs présentées dans la signature. Des preuves de concept ciblant les serveurs IIS ont montré qu'il était possible de déclencher de l'exécution de code arbitraire sur les systèmes vulnérables.

5.8 Quoi de neuf en 2015 ?

En 2015, plusieurs avis de sécurité concernant TLS ont déjà été publiés :

Attardons-nous sur le second point, dont on a appris plus de détails en mars dernier, avec la publication du site SMACK 37 (State Machine AttaCKs). À l'aide de FlexTLS, un pile TLS exible développée par l'équipe INRIA Prosecco, des chercheurs ont testé les machines à état de nombreuses piles TLS [6]. Les résultats sont impressionnants, et touchent quasiment toutes les piles TLS connues. Voici les principales attaques découvertes, qui reposent toutes sur un attaquant réseau actif.

Early Finished (usurpation de l'identité du serveur)

L'attaquant répond à la place du serveur avec les messages suivants : ServerHello, Certificate (avec le certicat du serveur à usurper) et ServerFinished, en omettant le reste de la négociation. Face à une telle négociation abrégée, les implémentation JSSE (Java) et CyaSSL considèrent le serveur authentié, et transmettent les messages ApplicationData en clair !

Skip Verify (usurpation de l'identité du client)

Dans le cas d'une connexion avec authentication mutuelle, le serveur demande au client de présenter un certicat (message Certificate) et de signer avec sa clé privée une partie des messages Handshake (message CertificateVerify) avant de considérer la connexion comme authentiée. Cependant certaines implémentations acceptent de recevoir un certicat client sans le message CertificateVerify : l'implémentation TLS de Mono considère simplement ce second message comme optionnel, et considère tout de même le client authentié ; avec CyaSSL, il faut également omettre le message ChangeCipherSpec du client ; avec OpenSSL, la faille est plus subtile, et nécessite que l'attaquant présente un certicat client avec une clé Die-Hellman statique.

Skip ServerKeyExchange (perte de la forward secrecy)

On suppose qu'un client et un serveur négocient une suite utilisant ECDHE pour l'échange de clé et ECDSA pour l'authentication du serveur. Avec certaines implémentations, si un attaquant supprime le message ServerKeyExchange, le client utilisera la clé publique présente dans le certicat ECDSA à la place de la part de secret ECDHE attendue. Cependant, les transcripts étant diérents côté client et serveur, la connexion échouera lors de l'échange des messages Finished. L'attaque peut avoir un impact lorsque False Start (l'envoi de données applicatives avant que la négociation soit terminée) est utilisé. OpenSSL et NSS sont concernés par cette vulnérabilité.

FREAK (Factoring RSA Export Keys)

La dernière attaque présentée dans l'article est celle qui a fait couler le plus d'encre : FREAK. Comme les attaques précédentes, elle repose sur un attaquant réseau actif qui modie les messages à la volée.

La section 1 présentait une connexion TLS classique, reposant sur l'échange de clé par chirement RSA. Jusqu'au début des années 2000, l'utilisation de mécanismes de chirement était limité à l'export par les États-Unis, et pour être compatible avec cette réglementation, il existait un autre mécanisme d'échange de clé, RSA-EXPORT : au lieu de transmettre simplement son certicat, le serveur transmettait son certicat (contenant une clé RSA long terme de 1024 ou 2048 bits), puis une clé publique RSA de petite taille (512 bits), signée par la clé long terme 38 . Le client chirait alors son pre-master secret avec la clé de petite taille. Cela permettait d'obtenir une authentication du serveur avec une clé de grande taille, tout en restant compatible avec les règles concernant le chirement.

Le problème soulevé par FREAK est triple :

Le scénario est le suivant :

FREAK a fait du bruit car les piles OpenSSL, BoringSSL, LibReSSL, SecureTransport (Apple), SChannel (Microsoft), Mono et IBM JSSE (Java) se sont révélées vulnérables.

6 TLS 1.3 : un nouvel espoir ?

Avant de présenter TLS 1.3, il est utile de tirer des enseignements de l'ensemble des failles présentées. Certains aspects peuvent être traités à l'aide d'une nouvelle version du standard, mais pas tous.

6.1 Enseignements tirés

Inclure l'échec dans les propriétés à tester

Il est naturel dans un développement logiciel de vérier que le produit ni remplit le cahier des charges, c'est-à-dire que ce qui doit fonctionner fonctionne. Il est beaucoup plus rare de tester que ce qui doit échouer échoue eectivement. En eet, cette démarche est une démarche de sécurité, et non une démarche fonctionnelle.

Force est de constater qu'aucun (ou presque) test négatif n'est réalisé en pratique sur les piles TLS, puisque des erreurs triviales sont régulièrement trouvées sur les produits : absence de vérication de l'extension BasicConstraints dans les certicats, contournements du code de vérication dans certains cas, etc. La situation est même pire, puisque des problèmes connus dans une pile TLS à un instant donné peuvent réapparaître dans une autre pile 5 ou 10 ans plus tard 40  : aucune base de tests publique ne permet de vérier proprement la non-régression !

Quelques eorts sont en cours dans la communauté scientique, mais la meilleure base de certicats publics existante à ce jour est Frankencerts [13], un ensemble de certicats forgés de bric et de broc à partir de certicats valides. L'idée était de créer des certicats syntaxiquement corrects, mais dont la sémantique pouvait être invalide. Ces travaux sont un premier pas, mais ont plusieurs limitations : ils ne touchent pas à la structure ASN.1 DER des certicats ; de plus, la méthodologie proposée par les chercheurs laisse à désirer, puisqu'ils considèrent que la réponse attendue pour un certicat est ce que la majorité des piles TLS répondent.

Améliorer la qualité du développement logiciel

En plus de tests en boîte noire avec une liste de problèmes connus, il est également essentiel d'améliorer la qualité du code dans les piles TLS. En eet, ces briques logicielles représentent un élément crucial dans la sécurité des systèmes d'information. Il est donc important d'une part de s'assurer qu'elles remplissent leur rôle, et d'autre part de vérier qu'elles n'aaiblissent pas la sécurité des systèmes qui les embarquent. En eet, au moins deux failles en 2014 ont eu un impact qui allait au-delà de la remise en cause de TLS, permettant la divulgation d'information échangées par TLS à des tiers (Heartbleed, section 5.3) ou l'exécution de code arbitraire (faille dans SChannel, section 5.7).

Pour améliorer la qualité de ces composants, il faut mettre à prot les outils d'analyse existants, tels que ceux oerts par les compilateurs. Cela implique également de rendre le code auditable. Enn, des outils de fuzzing permettent d'instrumenter le code pour secouer les implémentations de l'intérieur ; c'est le cas d'afl (American Fuzzy Lop, développé par Michal Zalewski) qui a par exemple permis d'identier un débordement de tampon dans le tas dans GnuTLS.

Une voie alternative est d'utiliser d'autres langages de programmation que le C pour garantir certaines propriétés de sécurité de manière intrinsèque. Les chercheurs de Cambridge développant Mirage ont ainsi publié une implémentation complète de TLS en OCaml 41 . Si cette démarche a des vertus, il ne faut pas moins étudier la sécurité des bibliothèques et programmes résultants. En eet, si OCaml garantit par construction l'absence de certaines classes d'erreur sous condition42 , et si l'utilisation du pattern matching exhaustif peut éviter certaines erreurs de logique, TLS reste intrinsèquement complexe, et des failles peuvent également apparaître dans couches haut niveau (interprétation de l'ASN.1, machine à état, etc.). La validation de ces implémentations passent là encore par du test et de l'audit.

TLS est complexe

L'encodage ASN.1 DER est relativement complexe, comme le démontrent les nombreuses failles de sécurité des parsers de certicats. Comme l'authentication des serveurs repose uniquement sur des certicats X.509 43 , cette part de complexité restera une source de problèmes pour TLS pendant longtemps. Il est donc nécessaire de disposer d'outils robustes et éprouvés.

TLS contient encore de nombreux algorithmes et mode cryptographiques historiques, dont on sait qu'ils sont dangereux, par exemple le paradigme MAC-then-Encrypt ou le chirement RSA PKCS#1 v1.5. Ils sont intrinsèquement diciles à implémenter correctement, mais TLS 1.3 prévoit de retirer la majorité des suites cryptographiques présentant ces défauts.

Enn, une autre source de complexité de TLS est son automate d'état. Comme l'ont montré des attaques comme la vulnérabilité sur la renégociation en 2009, Triple Handshake et EarlyCCS en 2014, ou plus récemment l'acceptation de séquences de messages incorrectes dans OpenSSL, il est dicile d'analyser le fonctionnement réel de l'automate idéal ou des implémentations concrètes. Sur ce point, des travaux récents menés par l'équipe INRIA Prosecco apportent des éléments de réponses, que ce soit sur la spécication (miTLS est une implémentation sur laquelle des propriétés de sécurité ont été prouvées, sur des situations réelles) ou sur le test des implémentations (FlexTLS est une pile TLS exible permettant de secouer les automates d'état). De plus, TLS 1.3 devrait retirer des options complexes telles que la renégociation ou la reprise de session, pour obtenir un automate d'état beaucoup plus simple.

Cependant, si TLS 1.3 apporte (enn) des proposition concrètes pour réduire la complexité du protocole, il faut se rappeler qu'une transition est nécessaire, et que les implémentations courantes continueront encore de supporter TLS 1.0 à TLS 1.2 pendant encore des années. En particulier, SSLv3 est encore partiellement supporté aujourd'hui, près de 20 ans après sa spécication, et malgré des failles de sécurité de plus en plus prégnantes. Il est donc déjà temps, lorsque SSLv3 sera enn abandonné, de mettre eectivement TLS 1.0 et TLS 1.1 sur le banc de touche.

6.2 TLS 1.3

Les premiers échanges concernant TLS 1.3 remontent à novembre 2013, quand Eric Rescorla propose un nouveau mécanisme d'échange de clés pour le protocole [46]. Après quelques mois de discussions sur la liste du groupe de travail TLS de l'IETF, le travail a également continué, à partir d'avril 2014, sur GitHub 44 .

Avertissement : cette section a été rédigée en avril 2015, alors que la spécication TLS 1.3 n'est pas encore gée. Les éléments présentés ici reposent sur la version 5 du brouillon45 et sur les échanges du groupe de travail TLS de l'IETF.

Un échange de clé repensé

PICPIC

Figure 17: Exemple de négociation avec TLS 1.3.

La plus grosse modication du protocole dans TLS 1.3 est sans doute une refonte des messages échangés. La gure 17 présente ce que sera une connexion TLS typique (sans authentication client). Les principales modications par rapport à TLS 1.2 sont :

An de simplier l'automate à état du protocole, les messages ChangeCipherSpec ont disparu. Parmi les éléments encore en discussion, on peut citer :

Du nouveau dans la dérivation des clés

La dérivation des clés a été profondément modiée dans TLS 1.3, puisque le pre-master secret sert désormais à produire un handshake master secret, qui protégera uniquement les messages jusqu'à la n de la négociation. À la n de la négociation (c'est-à-dire après authentication optionnelle des parties), deux nouveaux secrets sont dérivés à partir du handshake master secret : le master secret pour le reste du trac et le resumption pre-master secret qui sera utilisé pour une reprise de session. Grâce à cette distinction, on peut décorréler le cache de session du secret utilisé pour la session courante, ce qui ore une forme de forward secrecy.

La fonction de dérivation, la PRF, a également changé, puisqu'elle inclut désormais le haché de l'ensemble des messages de négociation précédents (session-hash), et pas uniquement les aléas. Il s'agit de l'inclusion de la contre-mesure à l'attaque Triple Handshake [7]. De plus, l'apparition de clés temporaires avec le handshake master secret permet de protéger une partie des messages de la négociation, notamment certaines extensions envoyées par le serveur dans le message EncryptedExtensions et le certicat du serveur.

Des discussions sont en cours pour changer la fonction de dérivation des clés, qui est essentiellement un HMAC aujourd'hui, pour HKDF (HMAC-based Key Derivation Function), une primitive plus robuste. De plus, si le mode 0-RTT était accepté, il faudrait repenser tout l'arbre de dérivation des clés. Ces deux propositions sont actuellement portées par Hugo Krawczyk devant le groupe de travail.

Autres changements

Pour terminer, voici quelques autres modications intéressantes apportées par la nouvelle version de TLS :

TLS 1.3 est un standard en cours de spécication. Un grand ménage a déjà été réalisé, mais certaines fonctionnalités, telles que le mode 0-RTT ou l'authentication tardive du client, donnent actuellement un nouveau tournant aux échanges. En eet, les solutions proposées sont parfois complexes et risquent de faire retomber TLS dans ses anciens travers. Une solution simple sera de ne pas utiliser ces fonctionnalités, mais elles seront certainement implémentées (voire activées par défaut) dans toutes les piles logicielles courantes...

Conclusion

Depuis 2012, de nombreuses attaques ont été présentées sur SSL/TLS, qu'il s'agisse de failles protocolaires, de vulnérabilités cryptographiques, ou d'erreurs d'implémentation. L'actualité a montré qu'aucune pile TLS couramment employée n'avait été épargnée.

Cela ne signie pas que TLS doit être abandonné, mais cela milite en faveur de la mise en place de la défense en profondeur : TLS ne peut pas être le seul mécanisme de sécurité, et le protocole doit être employé sur des machines à jour, durcies, et le périmètre de tous les composants logiciels utilisés doit être réduit.

Il est également important de suivre quelques recommandations concernant les versions du protocole utilisées (bannir SSLv2 et SSLv3, et supporter TLS 1.2) et les suites cryptographiques (interdire les suites cryptographiques obsolètes, privilégier les algorithmes récents reposant sur des modes cryptographiques modernes tels que GCM). Il est également important de bien comprendre le modèle de conance de TLS : l'IGC mondiale autour d'HTTPS comporte de nombreux acteurs, et tous les cas d'emploi ne nécessitent pas forcément de leur faire une conance absolue. Certains de ces éléments commencent à être précisés dans les documents de bonnes pratiques édités par le groupe de travail UTA (Using TLS in Application) de l'IETF.

An de vérier que ces recommandations sont bien comprises et appliquées, il est essentiel de tester ses serveurs. Il est étonnant de découvrir en 2015 qu'un tiers des serveurs HTTPS dans le monde accepte les suites EXPORT !

De plus, de nouveaux travaux sont nécessaires pour améliorer la sécurité des implémentations et celle du protocole. Pour les implémentations, cela passe par plus de tests des propriétés de sécurité (y compris pour vérier qu'un test négatif échoue bien en pratique) et par une meilleure utilisation des langages de programmation et des outils de développement. Pour le protocole, des eorts sont en cours pour analyser TLS dans sa complexité, et TLS 1.3, qui sera bientôt publié, devrait réduire les fonctionnalités de ce protocole tentaculaire pour se concentrer sur un protocole plus simple, sans ajouter, espérons-le, trop de nouvelles fonctionnalités.

Références

1.    N. J. AlFardan, D. Bernstein, K. G. Paterson, B. Poettering, and J. C. N. Schuldt. On the security of RC4 in TLS and WPA. In USENIX Security, 2013.

2.    N. J. AlFardan and K. G. Paterson. Lucky Thirteen : Breaking the TLS and DTLS Record Protocols. In IEEE SSP, 2013.

3.    ANSSI. RGS Annexe B1 : Mécanismes cryptographiques, règles et recommandations concernant le choix et le dimensionnement des mécanismes cryptographiques, version 1.20, 2010.

4.    R. Barnes, M. Thomson, A. Pironti, and A. Langley. Deprecating Secure Sockets Layer Version 3.0, December 2014.

5.    A. Barth. The Web Origin Concept. RFC 6454 (Proposed Standard), December 2011.

6.    Benjamin Beurdouche, Karthikeyan Bhargavan, Antoine Delignat-Lavaud, Cédric Fournet, Markulf Kohlweiss, Alfredo Pironti, Pierre-Yves Strub, and Jean-Karim Zinzindohoue. A Messy State of the Union : Taming the Composite State Machines of TLS. In IEEE Symposium on Security & Privacy (Oakland), 2015.

7.    K. Bhargavan, A. Delignat-Lavaud, A. Pironti, A. Langley, and M. Ray. Transport Layer Security (TLS) Session Hash and Extended Master Secret Extension, 2014.

8.    Karthikeyan Bhargavan, Antoine Delignat-Lavaud, Cédric Fournet, , Alfredo Pironti, and Pierre-Yves Strub. Triple handshakes and cookie cutters : Breaking and xing authentication over tls. In IEEE Symposium on Security & Privacy, 2014.

9.    Karthikeyan Bhargavan, Cédric Fournet, Markulf Kohlweiss, Alfredo Pironti, and Pierre-Yves Strub. Implementing TLS with Veried Cryptographic Security. In IEEE Symposium on Security & Privacy (Oakland), pages 445462, 2013.

10.    S. Blake-Wilson, M. Nystrom, D. Hopwood, J. Mikkelsen, and T. Wright. Transport Layer Security (TLS) Extensions. RFC 3546 (Proposed Standard), June 2003. Obsoleted by RFC 4366.

11.    S. Blake-Wilson, M. Nystrom, D. Hopwood, J. Mikkelsen, and T. Wright. Transport Layer Security (TLS) Extensions. RFC 4366 (Proposed Standard), April 2006. Obsoleted by RFCs 5246, 6066, updated by RFC 5746.

12.    Daniel Bleichenbacher. Chosen Ciphertext Attacks Against Protocols Based on the RSA Encryption Standard PKCS #1. In CRYPTO, 1998.

13.    Chad Brubaker, Suman Jana, Baishakhi Ray, Sarfraz Khurshid, and Vitaly Shmatikov. Using frankencerts for automated adversarial testing of certicate validation in ssl/tls implementations. In Proceedings of the 2014 IEEE Symposium on Security and Privacy, SP '14, pages 114129, Washington, DC, USA, 2014. IEEE Computer Society.

14.    D. Cooper, S. Santesson, S. Farrell, S. Boeyen, R. Housley, and W. Polk. Internet X.509 Public Key Infrastructure Certicate and Certicate Revocation List (CRL) Prole. RFC 5280 (Proposed Standard), May 2008. Updated by RFC 6818.

15.    T. Dierks and E. Rescorla. The Transport Layer Security (TLS) Protocol Version 1.1. RFC 4346 (Proposed Standard), April 2006. Obsoleted by RFC 5246, updated by RFCs 4366, 4680, 4681, 5746, 6176.

16.    T. Dierks and E. Rescorla. The Transport Layer Security (TLS) Protocol Version 1.2. RFC 5246 (Proposed Standard), August 2008. Updated by RFCs 5746, 5878, 6176.

17.    T. Duong and J. Rizzo. BEAST : Surprising crypto attack against HTTPS. Ekoparty, 2011.

18.    D. Eastlake 3rd. Transport Layer Security (TLS) Extensions : Extension Denitions. RFC 6066 (Proposed Standard), January 2011.

19.    C. Evans, C. Palmer, and R. Sleevi. Public Key Pinning Extension for HTTP. RFC 7469 (Proposed Standard), April 2015.

20.    Sascha Fahl, Marian Harbach, Thomas Muders, Lars Baumgärtner, Bernd Freisleben, and Matthew Smith. Why eve and mallory love android : An analysis of android ssl (in)security. In Proceedings of the 2012 ACM Conference on Computer and Communications Security, CCS '12, pages 5061, New York, NY, USA, 2012. ACM.

21.    S. Fluhrer and D. McGrew. Statistical Analysis of the Alleged RC4 Keystream Generator. In FSE, 2000.

22.    Alan O. Freier, Philip Karlton, and Paul C. Kocher. The SSL Protocol Version 3.0, 1996.

23.    C. Garman, K. G. Paterson, and T. van der Merwe. Attacks Only Get Better : Password Recovery Attacks Against RC4 in TLS, 2015.

24.    Martin Georgiev, Subodh Iyengar, Suman Jana, Rishita Anubhai, Dan Boneh, and Vitaly Shmatikov. The most dangerous code in the world : Validating ssl certicates in non-browser software. In Proceedings of the 2012 ACM Conference on Computer and Communications Security, CCS '12, pages 3849, New York, NY, USA, 2012. ACM.

25.    D. Gillmor. Negotiated Finite Field Die-Hellman Ephemeral Parameters for TLS, 2015.

26.    P. Gutmann. Encrypt-then-MAC for Transport Layer Security (TLS) and Datagram Transport Layer Security (DTLS). RFC 7366 (Proposed Standard), September 2014.

27.    P. Hallam-Baker. X.509v3 TLS Feature Extension, December 2014.

28.    Kipp E.B. Hickman. The SSL Protocol, 1994-1995.

29.    J. Hodges, C. Jackson, and A. Barth. HTTP Strict Transport Security (HSTS). RFC 6797 (Proposed Standard), November 2012.

30.    P. Homan and J. Schlyter. The DNS-Based Authentication of Named Entities (DANE) Transport Layer Security (TLS) Protocol : TLSA. RFC 6698 (Proposed Standard), August 2012. Updated by RFC 7218.

31.    T. Isobe, T. Ohigashi, Y. Waatanabe, and M. Morii. Full Plaintext Recovery Attack on Broadcast RC4. In FSE, 2013.

32.    Itsik Mantin. Bar-Mitzva Attack : Breaking SSL with 13-Year Old RC4 Weakness. Black Hat Asia, 2015.

33.    B. Laurie, A. Langley, and E. Kasper. Certicate Transparency. RFC 6962 (Experimental), June 2013.

34.    Arjen Lenstra, Xiaoyun Wang, and Benne de Weger. Colliding X.509 certicates. In Cryptology ePrint Archive, Report 2005/067, 2005.

35.    Olivier Levillain. SSL/TLS : état des lieux et recommandations. In SSTIC, 2012.

36.    Olivier Levillain, Baptiste Gourdin, and Hervé Debar. TLS Record Protocol : Security Analysis and Defense-in-Depth Countermeasures for HTTPS. In ASIACCS, 2015.

37.    Nikos Mavrogiannopoulos, Frederik Vercauteren, Vesselin Velichkov, and Bart Preneel. A cross-protocol attack on the tls protocol. In Proceedings of the 2012 ACM Conference on Computer and Communications Security, CCS '12, pages 6272, New York, NY, USA, 2012. ACM.

38.    B. Moeller and A. Langley. TLS Fallback Signaling Cipher Suite Value (SCSV) for Preventing Protocol Downgrade Attacks. RFC 7507 (Proposed Standard), April 2015.

39.    B. Möller. Security of CBC Ciphersuites in SSL/TLS : Problems and Countermeasures, 2002-2004.

40.    B. Möller, T. Duong, and K. Kotowicz. Google Security Advisory : This POODLE Bites : Exploiting The SSL 3.0 Fallback, 2014.

41.    K. G. Paterson and N. J. AlFardan. Plaintext-Recovery Attacks Against Datagram tls. In NDSS, 2012.

42.    A. Popov. Prohibiting RC4 Cipher Suites. RFC 7465 (Proposed Standard), February 2015.

43.    A. Prado, N. Harris, and Y. Gluck. SSL, Gone in 30 seconds - A BREACH beyond CRIME. Black Hat USA, 2013.

44.    Ralph C. Merkle. A Digital Signature Based on a Conventional Encryption Function. In Advances in Cryptology - CRYPTO '87, A Conference on the Theory and Applications of Cryptographic Techniques, Santa Barbara, California, USA, August 16-20, 1987, Proceedings, pages 369378, 1987.

45.    M. Ray. Authentication Gap in TLS Renegotiation, 2009.

46.    E. Rescorla. New Handshake Flows for TLS 1.3, 2013.

47.    E. Rescorla and N. Modadugu. Datagram Transport Layer Security Version 1.2. RFC 6347 (Proposed Standard), January 2012.

48.    E. Rescorla, M. Ray, S. Dispensa, and N. Oskov. Transport Layer Security (TLS) Renegotiation Indication Extension. RFC 5746 (Proposed Standard), February 2010.

49.    J. Rizzo and T. Duong. The CRIME attack. Ekoparty, 2012.

50.    P. Rogaway. Problems with proposed IP Cryptography. www.cs.ucdavis.edu/r
   ogaway/papers/draft-rogaway-ipsec-comments-00.txt, 1995.

51.    S. Santesson, M. Myers, R. Ankney, A. Malpani, S. Galperin, and C. Adams. X.509 Internet Public Key Infrastructure Online Certicate Status Protocol - OCSP. RFC 6960 (Proposed Standard), June 2013.

52.    R. Seggelmann, M. Tuexen, and M. Williams. Transport Layer Security (TLS) and Datagram Transport Layer Security (DTLS) Heartbeat Extension. RFC 6520 (Proposed Standard), February 2012.

53.    Alex Sotirov, Marc Stevens, Jacob Appelbaum, Arjen Lenstra, David A Molnar, Dag Arne Osvik, and Benne de Weger. MD5 considered harmful today : Creating a rogue CA certicate, 2008. 25th Chaos Communications Congress, Berlin, Germany.

54.    A. Stubbleeld, J. Ioannidis, and A. Rubin. Using the Fluhrer, Mantin, and Shamir Attack to Break WEP. In NDSS, 2002.

55.    A. Shulman T. Be'ery. A Perfect CRIME ? TIME Will Tell. Black Hat EU, 2013.

56.    S. Turner and T. Polk. Prohibiting Secure Sockets Layer (SSL) Version 2.0. RFC 6176 (Proposed Standard), March 2011.

57.    S. Vaudenay. Security Flaws Induced by CBC Padding Applications to SSL, IPsec, WTLS. In Eurocrypt, 2002.

58.    David Wagner and Bruce Schneier. Analysis of the SSL 3.0 Protocol. In Unix Workshop on Electronic Commerce, pages 2940. USENIX Association, 1996.

59.    Xiaoyun Wang and Hongbo Yu. How to Break MD5 and Other Hash Functions. In Eurocypt'05, LNCS 3494, pages 1935, 2005.

60.    T. Zoller. TLS/SSLv3 renegotiation vulnerability explained, 2009-2011.