College Cryptografie. Cursusjaar Informatietheorie. 29 januari 2003

Vergelijkbare documenten
Shannon Theory of Cryptology

EXAMEN INFORMATIETHEORIE I (5JJ40 / 5K020) 25 maart 2004, 9u00 12u00-1 -

Informatiemaatschappij. College 3. Literatuur van deze week. De informatiemaatschappij. Het raadsel van informatie. Wat is informatie?

College Cryptografie. Cursusjaar Analyse Hagelin cryptograaf. 4 maart 2003

Informatieuitwisseling

Spreekbeurt Nederlands Cryptologie

Statistiek: Vorm van de verdeling 1/4/2014. dr. Brenda Casteleyn

Modelonzekerheid in GeoTOP

Shannon s Informatietheorie

Deel II. Probabilistische Modellen

Kansrekening en Statistiek

De cryptografie achter Bitcoin

Informatie-overdracht en -verwerking. Daniël Slenders Faculteit Ingenieurswetenschappen Katholieke Universiteit Leuven

13.1 Kansberekeningen [1]

??? Peter Stevenhagen. 7 augustus 2008 Vierkant voor wiskunde

Huygens Institute - Royal Netherlands Academy of Arts and Sciences (KNAW)

De Hill-cipher herzien

Cursus Cryptografie. Hagelin

Voorbereidingsmateriaal SUM OF US. Wiskundetoernooi 2006

Shannon s Informatietheorie

MAAKT BEKEND OOK BEMIND?

WI1808TH1/CiTG - Lineaire algebra deel 1

Public Key Cryptography. Wieb Bosma

De digitale handtekening

Claude Shannon: grondlegger van de communicatietheorie, pionier in de kunstmatige intelligentie en kernauteur in de informatiewetenschap

Algoritmes in ons dagelijks leven. Leve de Wiskunde! 7 April 2017 Jacobien Carstens

4.1 Eigenschappen van de normale verdeling [1]

Rekenen met cijfers en letters

Informatie coderen en kraken

Faculteit, Binomium van Newton en Driehoek van Pascal

1 a. Hoeveel hoekpunten heeft figuur 1 hieronder? b. Hoeveel hoekpunten heeft figuur 2 hieronder? c. Hoeveel hoekpunten heeft figuur 3 hieronder?

14.1 Kansberekeningen [1]

Entropie en Huffman-codering

11 Informatie en entropie.

Wouter Geraedts Processen & Processoren

Cryptografie. Beveiliging van de digitale maatschappij. Gerard Tel. Instituut voor Informatica en Informatiekunde Universiteit Utrecht

P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i). P (X n+1 = j X n = i) MARKOV KETENS. Definitie van Markov keten:

Hoofdstuk 6 Discrete distributies

Antwoorden bij 4 - De normale verdeling vwo A/C (aug 2012)

Uitwerkingen Rekenen met cijfers en letters

De Hamming-code. de wiskunde van het fouten verbeteren in digitale gegevens. Benne de Weger Faculteit Wiskunde en Informatica, TU/e 1/21

INLEIDING. Definitie Stochastisch Proces:

Cursus Cryptografie. Breken polyalfabeet. gepermuteerd alfabet

Rekenen met letters. RGO-Middelharnis 1. 1 c RGO-wiskunde

Statistiek voor Natuurkunde Opgavenserie 1: Kansrekening

Tentamen Inleiding Kansrekening 9 juni 2016, 10:00 13:00 Docent: Prof. dr. F. den Hollander

Toetsende Statistiek, Week 2. Van Steekproef naar Populatie: De Steekproevenverdeling

TECHNISCHE UNIVERSITEIT EINDHOVEN. Faculteit Wiskunde en Informatica

Cryptografie & geheimschrift: hoe computers en chips met elkaar praten

PA 9623PB 9623PC 9623PE 9623PG 9623PH 9623PJ 9623PK 9623TH PA 9624PB

Rekenen met letters- Uitwerkingen

Tentamen Inleiding Kansrekening 11 augustus 2011, uur

Set 2 Inleveropgaven Kansrekening (2WS20)

Kleinse Fles. Introductie String Zoologie Brane Worlds Zwarte Gaten

Inleidingsles voor. Communicatietheorie. Datacommunicatie. Inleiding "Communicatietheorie" 1

Cryptografie! in! Cyberspace. college-1

"#$%& ' ()*+,-%./01 23/456!"#$%&'" ( )*

GESLOTEN NETWERKEN VAN WACHTRIJEN

Cryptografie in Cyberspace

Statistiek voor A.I. College 10. Donderdag 18 Oktober

Cursus Statistiek Hoofdstuk 4. Statistiek voor Informatica Hoofdstuk 4: Verwachtingen. Definitie (Verwachting van discrete stochast) Voorbeeld (1)

Kansrekening en Statistiek

Communicatietheorie: Project

Tentamen Besliskunde 3 (11 juni 2012, uur)

HOOFDSTUK II BIJZONDERE THEORETISCHE VERDELINGEN

Eindexamen wiskunde B1 havo 2000-II

Rekenen met letters deel 2

Automaten. Informatica, UvA. Yde Venema

Complex multiplication constructions in genus 1 and 2

1. Een nieuw communicatiemodel

Waarschijnlijk wel, want er zit niet veel informatie in de klinkers. Deze activiteit laat een manier zien om de hoeveelheid informatie te meten.

Statistiek voor A.I. College 10. Dinsdag 16 Oktober

9.1 Logaritmische en exponentiële vergelijkingen [1]

Eindexamen wiskunde B1-2 vwo 2001-II

slides10.pdf December 5,

Examen Algoritmen en Datastructuren III

Noordhoff Uitgevers bv

Kansrekening en Statistiek

Tentamen Kunstmatige Intelligentie (INFOB2KI)

het antwoord 0, Antwoordmodel VWO wa II Startende ondernemingen Maximumscore % komt overeen met een kans van 0,4 (per 9 jaar) 1

4Passief: n Afluisteren. n Geen gegevens gewijzigd of vernietigd. n Via de routers van WAN. n Via draadloze verbindingen. 4Fysieke afsluiting

Tentamen Kansrekening (NB004B)

Zomercursus Wiskunde. Katholieke Universiteit Leuven Groep Wetenschap & Technologie. September 2008

Eindexamen wiskunde A1-2 vwo 2008-II

Statistiek voor A.I. College 5. Dinsdag 25 September 2012

Het minimale aantal sleutels op niveau h is derhalve

Examenvragen Hogere Wiskunde I

Correctievoorschrift HAVO. Wiskunde B1 (nieuwe stijl)

Lineaire algebra 1 najaar Lineaire codes

Hertentamen Biostatistiek 3 / Biomedische wiskunde

Eindexamen wiskunde C vwo II

Vragen die je wilt beantwoorden zijn:

DATA COMPRESSIE DATASTRUCTUREN

6.0 Differentiëren Met het differentiequotiënt bereken je de gemiddelde verandering per tijdseenheid.

Seintoestel Jullie gaan een seintoestel maken en berichten versturen

LIMIETGEDRAG VAN CONTINUE-TIJD MARKOV KETENS

Introductie in cryptografie

Hieronder zie je hoe dat gaat. Opgave 3. Tel het aantal routes in de volgende onvolledige roosters van linksboven naar rechtsonder.

Transcriptie:

College Cryptografie Cursusjaar 2003 Informatietheorie 29 januari 2003 1

Claude E. Shannon Informatiekanaal Entropie Equivocatie Markov ketens Entropie Markov keten Unicity distance Binair symmetrisch kanaal Kansberekening ud ONDERWERPEN 2

Claude Elwood Shannon (1916 2001) AT&T Bell Telephones (1941 1972) Grondslagen informatietheorie 1948 A Mathematical Theory of Communication Bell System Technical Journal Toepassing in de cryptografie 1949 Communication theory of secrecy systems Bell System Technical Journal Foto plm. 1950 Claude Elwood Shannon Claude E. Shannon 3

ruis bron coderen kanaal decoderen bestemming probleemstellingen informatieoverdracht: volledig ondanks ruis meeluisteren verhinderen zo compact mogelijk Informatiekanaal 4

p i = kans op symbool s i {S} I(s i ) = informatiewaarde symbool s i S = aantal symbolen in S I(s i ) = log 2 ( 1 p i ) = log 2 p i entropie van {S} = S i=1 p i log 2 p i (bits per symbool) grenswaarden 0 H(S) log 2 S analogie met entropie in de thermodynamica (warmteleer) Entropie 5

p log 2 p p log 2 p p log 2 p p log 2 p A.074 3.763.277 N.080 3.653.290 B.010 6.682.065 O.075 3.732.281 C.031 5.027.154 P.027 5.227.140 D.042 4.558.193 Q.004 8.158.029 E.130 2.944.383 R.076 3.722.282 F.028 5.142.146 S.061 4.031.247 G.016 5.932.097 T.092 3.444.316 H.034 4.883.165 U.026 5.265.137 I.074 3.766.277 V.015 6.028.092 J.002 9.252.015 W.016 6.002.094 K.003 8.400.025 X.005 7.758.036 L.036 4.799.174 Y.019 5.692.110 M.025 5.337.132 Z.001 9.995.010 H 26 = 4.700 H engels = 4.167 (bits per symbool) Entropie Engels 6

combinatie (i, j) met j afhankelijk i en kans p ij = p i p j i entropie H(I, J) = H(I, J) = i p i log p i i } {{ } H(I) S i,j p ij log p ij p i p j i log p j i j } {{ } H(J I) als i en j onafhankelijk p ij = p i p j H(I, J) = H(I) + H(J) grenswaarden 0 H(J I) H(J) log 2 S Equivocatie 7

informatiekanaal met I als zender en J als ontvanger equivocatie term (kanaalverlies, noise entropy) H(J I) = p i p j i log p j i i j perfecte communicatie { 1 als j = i { H(J I) = 0 equivocatie is nul p j i = 0 als j i H(I, J) = H(I) geen verlies imperfecte communicatie 0 < p j i < 1 H(J I) > 0 H(I, J) = H(I) + H(J I) > H(I) Communicatie 8

definitie wederzijdse informatie W (I, J) = H(J) H(J I) (I = zender, J = b.v. cryptoanalist) perfecte waarneming (bekende sleutel) { 1 i = j p j i = H(J I) = 0 W (I, J) = H(J) = H(I) 0 i j imperfecte waarneming (cryptoanalyse) 0 < p j i < 1 0 < H(J I) < H(J) 0 < W (I, J) < H(J) geen waarneming (onbreekbaar cryptosysteem) p j i = p j H(J I) = H(J) W (I, J) = 0 Wederzijdse informatie 9

markov keten lengte 1 kans op QU is p(x Q) = { x = U 1 x U 0 markov keten lengte 2 kans op QUx is p(x QU) = x = A 0.37 x E, I 0.30 x = O 0.03 x A, E, I, O 0.00 markov keten lengte n kans op x 1 x 2... x n x n+1 met x n+1 = y is p(y x 1 x 2... x n ) Markov ketens 10

bereken entropie markov keten p x = S i...j p i...j p x i...j H(I... JX) = H(I... J) + H(X I... J) bepaal kansen uit tellingen p(j i) = lim n #ij/#i Entropie Markov keten 11

entropie berichten van L letters H(M L ) = H 1 (S 1 )+H 2 (S 2 S 1 )+H 3 (S 3 S 1 S 2 )+ L.H L (S L S 1... S L 1 ) engelse taal, 26 letter alfabet, in bits per symbool H 0 = 4.7 (= log 2 26) H 1 = 4.2 H 2 = 3.6 H = 1.2 1.5 rate of the language H redundantie D = H 0 H Entropie van taal 12

Alfabet rundown L=2 L=4 L=8 AB 0.044 ABIG 0.139 ABIGPMZM 0.000 BC 0.000 BCJH 0.000 BCJHQNAN 0.000 CD 0.002 CDKI 0.008 CDKIROBO 0.000 DE 0.142 DELJ 0.041 DELJSPCP 0.000 EF 0.088 EFMK 0.000 EFMKTQDQ 0.000............ RS 0.081 RSZX 0.000 RSZXGDQD 0.000 ST 0.254 STAY 0.658 STAYHERE 0.998 TU 0.046 TUBZ 0.000 TUBZIFSF 0.000 UV 0.007 UVCA 0.061 UVCAJGTG 0.000............ ZA 0.002 ZAHF 0.003 ZAHFOLYL 0.000 H 2 = 3.182 H 4 = 1.719 H 8 = 0.022 Entropie in Caesar systeem 13

known plaintext W ((M, C), K) = H(K) H(K M, C) H(M, C, K) = H(M C, K) + H(C, K) H(M, C, K) = H(K M, C) + H(M, C) H(M C, K) = 0 H(C, K) = H(C) + H(K C) H(M, C) = H(C) + H(M C) H(K M, C) = H(K C) H(M C) ciphertext only W (M, C) = H(M) H(M C) H(M) H(K) Key appearance 14

Ciphertext-only analyse: sleutel bekend? Als H(K C) 0 H(K C) = H(C, K) H(C) M K C H(C, K) = H(M, K) K onafhankelijk M H(M, K) = H(M) + H(K) H(K C) = H(M) + H(K) H(C) Markov model H(M) L H en H(C) L H 0 H(K C) H(K) + L H L H 0 H(K C) 0 L H(K) H 0 H L heet unicity distance Unicity distance 15

Unicity distance 16

L H(K) H 0 H L H(K) H 1 H i i H i L = 20 L = 8 8 n 2.510 18 n = 4 16 1 4.2 = log 2 26! 4.7 1.2 L 25 letters 2 3.6 111 55 3 3.2 65 32 7 2.8 45 22 1.2 20 10 monoalfabeet transpositie Voorbeelden unicity distance 17

kanaalmatrix ( ) p0 0 p 1 0 ( P 1 P ) P = p 0 1 p 1 1 = 1 P P en p = (p, 1 p) uitvoerdistributie P p = (1 p P + 2pP, p + P 2pP) Binair symmetrisch kanaal 18

H(ontvanger zender) = 1 = 1 p i i=0 j=0 p j i log p j i = P log P (1 P) log(1 P) Kanaalentropie 19

kans op een zeker aantal oplossingen M = #[k {K}: D(C, k) {M}] met M {1,..., K } kans op de goede bij meerdere oplossingen M = m p m = 1 m kans op één of meer oplossingen P = K m=1 1 p(m = m) m Kansberekening ud 20

kans op een oplossing p k = { 1 goede sleutel k 2 L.D willekeurige sleutel k schakel echte oplossing uit P(M ) met M = M 1 kans bij binomiale verdeling ( ) K 1 p(m = m ) = p m k (1 p k) K 1 m m stap 2 21

voeg echte oplossing weer toe m = m 1 P = K m=1 gebruik binomium van Newton ( 1 K 1 m m 1 ) P = 1 p k K (1 K (1 p k ) K ) p m 1 k (1 p k ) K m benadering omdat kans klein p k 1 P 1 e µ µ met µ = p k K stap 3 22

P = 1 e µ µ µ = p k K p k 2 L(H 0 H ) H 0 = 4.7 H = 2.0 K = 8.410 17 ud 20 < L < 25 Sleutelkans 23