-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathapéndice-d-probabilidad-y-estadística.html
856 lines (815 loc) · 101 KB
/
apéndice-d-probabilidad-y-estadística.html
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
<!DOCTYPE html>
<html lang="" xml:lang="">
<head>
<meta charset="utf-8" />
<meta http-equiv="X-UA-Compatible" content="IE=edge" />
<title>Apéndice D: Probabilidad y estadística | Introducción a la Genética de Poblaciones y a la Genética Cuantitativa</title>
<meta name="description" content="Apuntes del curso Genética II. Contenido teórico mínimo para el seguimiento del curso" />
<meta name="generator" content="bookdown 0.37 and GitBook 2.6.7" />
<meta property="og:title" content="Apéndice D: Probabilidad y estadística | Introducción a la Genética de Poblaciones y a la Genética Cuantitativa" />
<meta property="og:type" content="book" />
<meta property="og:description" content="Apuntes del curso Genética II. Contenido teórico mínimo para el seguimiento del curso" />
<meta name="github-repo" content="rstudio/bookdown-demo" />
<meta name="twitter:card" content="summary" />
<meta name="twitter:title" content="Apéndice D: Probabilidad y estadística | Introducción a la Genética de Poblaciones y a la Genética Cuantitativa" />
<meta name="twitter:description" content="Apuntes del curso Genética II. Contenido teórico mínimo para el seguimiento del curso" />
<meta name="author" content="Hugo Naya" />
<meta name="author" content="Federica Marín" />
<meta name="author" content="Mauricio Langleib" />
<meta name="author" content="(Graciana Castro)" />
<meta name="date" content="2024-04-11" />
<meta name="viewport" content="width=device-width, initial-scale=1" />
<meta name="apple-mobile-web-app-capable" content="yes" />
<meta name="apple-mobile-web-app-status-bar-style" content="black" />
<link rel="prev" href="apéndice-c-álgebra-lineal-y-geometría-analítica.html"/>
<link rel="next" href="bibliografia.html"/>
<script src="libs/jquery-3.6.0/jquery-3.6.0.min.js"></script>
<script src="https://cdn.jsdelivr.net/npm/fuse.js@6.4.6/dist/fuse.min.js"></script>
<link href="libs/gitbook-2.6.7/css/style.css" rel="stylesheet" />
<link href="libs/gitbook-2.6.7/css/plugin-table.css" rel="stylesheet" />
<link href="libs/gitbook-2.6.7/css/plugin-bookdown.css" rel="stylesheet" />
<link href="libs/gitbook-2.6.7/css/plugin-highlight.css" rel="stylesheet" />
<link href="libs/gitbook-2.6.7/css/plugin-search.css" rel="stylesheet" />
<link href="libs/gitbook-2.6.7/css/plugin-fontsettings.css" rel="stylesheet" />
<link href="libs/gitbook-2.6.7/css/plugin-clipboard.css" rel="stylesheet" />
<link href="libs/anchor-sections-1.1.0/anchor-sections.css" rel="stylesheet" />
<link href="libs/anchor-sections-1.1.0/anchor-sections-hash.css" rel="stylesheet" />
<script src="libs/anchor-sections-1.1.0/anchor-sections.js"></script>
<script src="libs/kePrint-0.0.1/kePrint.js"></script>
<link href="libs/lightable-0.0.1/lightable.css" rel="stylesheet" />
<link href="libs/bsTable-3.3.7/bootstrapTable.min.css" rel="stylesheet" />
<script src="libs/bsTable-3.3.7/bootstrapTable.js"></script>
<style type="text/css">
pre > code.sourceCode { white-space: pre; position: relative; }
pre > code.sourceCode > span { line-height: 1.25; }
pre > code.sourceCode > span:empty { height: 1.2em; }
.sourceCode { overflow: visible; }
code.sourceCode > span { color: inherit; text-decoration: inherit; }
pre.sourceCode { margin: 0; }
@media screen {
div.sourceCode { overflow: auto; }
}
@media print {
pre > code.sourceCode { white-space: pre-wrap; }
pre > code.sourceCode > span { text-indent: -5em; padding-left: 5em; }
}
pre.numberSource code
{ counter-reset: source-line 0; }
pre.numberSource code > span
{ position: relative; left: -4em; counter-increment: source-line; }
pre.numberSource code > span > a:first-child::before
{ content: counter(source-line);
position: relative; left: -1em; text-align: right; vertical-align: baseline;
border: none; display: inline-block;
-webkit-touch-callout: none; -webkit-user-select: none;
-khtml-user-select: none; -moz-user-select: none;
-ms-user-select: none; user-select: none;
padding: 0 4px; width: 4em;
color: #aaaaaa;
}
pre.numberSource { margin-left: 3em; border-left: 1px solid #aaaaaa; padding-left: 4px; }
div.sourceCode
{ }
@media screen {
pre > code.sourceCode > span > a:first-child::before { text-decoration: underline; }
}
code span.al { color: #ff0000; font-weight: bold; } /* Alert */
code span.an { color: #60a0b0; font-weight: bold; font-style: italic; } /* Annotation */
code span.at { color: #7d9029; } /* Attribute */
code span.bn { color: #40a070; } /* BaseN */
code span.bu { color: #008000; } /* BuiltIn */
code span.cf { color: #007020; font-weight: bold; } /* ControlFlow */
code span.ch { color: #4070a0; } /* Char */
code span.cn { color: #880000; } /* Constant */
code span.co { color: #60a0b0; font-style: italic; } /* Comment */
code span.cv { color: #60a0b0; font-weight: bold; font-style: italic; } /* CommentVar */
code span.do { color: #ba2121; font-style: italic; } /* Documentation */
code span.dt { color: #902000; } /* DataType */
code span.dv { color: #40a070; } /* DecVal */
code span.er { color: #ff0000; font-weight: bold; } /* Error */
code span.ex { } /* Extension */
code span.fl { color: #40a070; } /* Float */
code span.fu { color: #06287e; } /* Function */
code span.im { color: #008000; font-weight: bold; } /* Import */
code span.in { color: #60a0b0; font-weight: bold; font-style: italic; } /* Information */
code span.kw { color: #007020; font-weight: bold; } /* Keyword */
code span.op { color: #666666; } /* Operator */
code span.ot { color: #007020; } /* Other */
code span.pp { color: #bc7a00; } /* Preprocessor */
code span.sc { color: #4070a0; } /* SpecialChar */
code span.ss { color: #bb6688; } /* SpecialString */
code span.st { color: #4070a0; } /* String */
code span.va { color: #19177c; } /* Variable */
code span.vs { color: #4070a0; } /* VerbatimString */
code span.wa { color: #60a0b0; font-weight: bold; font-style: italic; } /* Warning */
</style>
<style type="text/css">
div.hanging-indent{margin-left: 1.5em; text-indent: -1.5em;}
</style>
<style type="text/css">
/* Used with Pandoc 2.11+ new --citeproc when CSL is used */
div.csl-bib-body { }
div.csl-entry {
clear: both;
margin-bottom: 0em;
}
.hanging div.csl-entry {
margin-left:2em;
text-indent:-2em;
}
div.csl-left-margin {
min-width:2em;
float:left;
}
div.csl-right-inline {
margin-left:2em;
padding-left:1em;
}
div.csl-indent {
margin-left: 2em;
}
</style>
<link rel="stylesheet" href="style.css" type="text/css" />
</head>
<body>
<div class="book without-animation with-summary font-size-2 font-family-1" data-basepath=".">
<div class="book-summary">
<nav role="navigation">
<ul class="summary">
<li><a href="./">Genética II</a></li>
<li class="divider"></li>
<li class="chapter" data-level="" data-path="index.html"><a href="index.html"><i class="fa fa-check"></i>Prefacio</a>
<ul>
<li class="chapter" data-level="" data-path="index.html"><a href="index.html#nuestra-filosofía-del-no-tanto"><i class="fa fa-check"></i>Nuestra filosofía del NO (tanto)</a></li>
<li class="chapter" data-level="" data-path="index.html"><a href="index.html#qué-es-y-qué-no-es-este-libro"><i class="fa fa-check"></i>¿Qué ES y qué NO ES este libro?</a></li>
<li class="chapter" data-level="" data-path="index.html"><a href="index.html#bibliografía-recomendada-para-este-curso"><i class="fa fa-check"></i>Bibliografía recomendada para este curso</a></li>
<li class="chapter" data-level="" data-path="index.html"><a href="index.html#responsabilidades-y-agradecimientos"><i class="fa fa-check"></i>Responsabilidades y Agradecimientos</a></li>
<li class="chapter" data-level="" data-path="index.html"><a href="index.html#íconos-utilizados-en-este-libro"><i class="fa fa-check"></i>Íconos utilizados en este libro</a></li>
</ul></li>
<li class="part"><span><b>Parte I: Genómica</b></span></li>
<li class="chapter" data-level="1" data-path="intro.html"><a href="intro.html"><i class="fa fa-check"></i><b>1</b> Introducción a la Genómica</a>
<ul>
<li class="chapter" data-level="1.1" data-path="intro.html"><a href="intro.html#variabilidad-genética"><i class="fa fa-check"></i><b>1.1</b> Variabilidad genética</a></li>
<li class="chapter" data-level="1.2" data-path="intro.html"><a href="intro.html#genómica-composicional"><i class="fa fa-check"></i><b>1.2</b> Genómica composicional</a></li>
<li class="chapter" data-level="1.3" data-path="intro.html"><a href="intro.html#genómica-comparativa"><i class="fa fa-check"></i><b>1.3</b> Genómica comparativa</a></li>
<li class="chapter" data-level="1.4" data-path="intro.html"><a href="intro.html#genómica-funcional"><i class="fa fa-check"></i><b>1.4</b> Genómica funcional</a></li>
<li class="chapter" data-level="1.5" data-path="intro.html"><a href="intro.html#conclusión"><i class="fa fa-check"></i><b>1.5</b> Conclusión</a></li>
<li class="chapter" data-level="1.6" data-path="intro.html"><a href="intro.html#actividades"><i class="fa fa-check"></i><b>1.6</b> Actividades</a></li>
</ul></li>
<li class="part"><span><b>Parte II: Genética de Poblaciones</b></span></li>
<li class="chapter" data-level="2" data-path="variacion.html"><a href="variacion.html"><i class="fa fa-check"></i><b>2</b> Variación y equilibrio de Hardy-Weinberg</a>
<ul>
<li class="chapter" data-level="2.1" data-path="variacion.html"><a href="variacion.html#el-equilibrio-de-hardy-weinberg"><i class="fa fa-check"></i><b>2.1</b> El equilibrio de Hardy-Weinberg</a></li>
<li class="chapter" data-level="2.2" data-path="variacion.html"><a href="variacion.html#hardy-weinberg-en-especies-dioicas-dos-sexos"><i class="fa fa-check"></i><b>2.2</b> Hardy-Weinberg en especies dioicas (dos sexos)</a></li>
<li class="chapter" data-level="2.3" data-path="variacion.html"><a href="variacion.html#heterocigotas-freq-alelica"><i class="fa fa-check"></i><b>2.3</b> H-W: la frecuencia de heterocigotas en función de la frecuencia alélica</a></li>
<li class="chapter" data-level="2.4" data-path="variacion.html"><a href="variacion.html#el-equilibrio-de-hardy-weinberg-en-cromosomas-ligados-al-sexo"><i class="fa fa-check"></i><b>2.4</b> El equilibrio de Hardy-Weinberg en cromosomas ligados al sexo</a></li>
<li class="chapter" data-level="2.5" data-path="variacion.html"><a href="variacion.html#tres-o-más-alelos"><i class="fa fa-check"></i><b>2.5</b> Tres o más alelos</a></li>
<li class="chapter" data-level="2.6" data-path="variacion.html"><a href="variacion.html#la-estimación-de-frecuencias-y-el-equilibrio-o-no"><i class="fa fa-check"></i><b>2.6</b> La estimación de frecuencias y el equilibrio (o no)</a></li>
<li class="chapter" data-level="2.7" data-path="variacion.html"><a href="variacion.html#el-sistema-abo"><i class="fa fa-check"></i><b>2.7</b> El sistema ABO</a></li>
<li class="chapter" data-level="2.8" data-path="variacion.html"><a href="variacion.html#dónde-se-esconden-los-alelos-recesivos"><i class="fa fa-check"></i><b>2.8</b> ¿Dónde se “esconden” los alelos recesivos?</a></li>
<li class="chapter" data-level="2.9" data-path="variacion.html"><a href="variacion.html#hardy-weinberg-en-especies-poliploides"><i class="fa fa-check"></i><b>2.9</b> Hardy-Weinberg en especies poliploides</a></li>
<li class="chapter" data-level="2.10" data-path="variacion.html"><a href="variacion.html#geometría-y-genética-los-diagramas-de-de-finetti"><i class="fa fa-check"></i><b>2.10</b> Geometría y Genética: los diagramas de <em>de Finetti</em></a></li>
<li class="chapter" data-level="2.11" data-path="variacion.html"><a href="variacion.html#estimacion-abo"><i class="fa fa-check"></i><b>2.11</b> La estimación de frecuencias en el locus ABO</a></li>
<li class="chapter" data-level="2.12" data-path="variacion.html"><a href="variacion.html#conclusión-1"><i class="fa fa-check"></i><b>2.12</b> Conclusión</a></li>
<li class="chapter" data-level="2.13" data-path="variacion.html"><a href="variacion.html#actividades-1"><i class="fa fa-check"></i><b>2.13</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="3" data-path="deriva.html"><a href="deriva.html"><i class="fa fa-check"></i><b>3</b> Deriva genética</a>
<ul>
<li class="chapter" data-level="3.1" data-path="deriva.html"><a href="deriva.html#el-rol-de-los-procesos-estocásticos-en-la-genética"><i class="fa fa-check"></i><b>3.1</b> El rol de los procesos estocásticos en la genética</a></li>
<li class="chapter" data-level="3.2" data-path="deriva.html"><a href="deriva.html#el-modelo-de-wright-fisher"><i class="fa fa-check"></i><b>3.2</b> El modelo de Wright-Fisher</a></li>
<li class="chapter" data-level="3.3" data-path="deriva.html"><a href="deriva.html#la-subdivisión-poblacional-y-la-evolución-de-las-frecuencias-alélicas"><i class="fa fa-check"></i><b>3.3</b> La subdivisión poblacional y la evolución de las frecuencias alélicas</a></li>
<li class="chapter" data-level="3.4" data-path="deriva.html"><a href="deriva.html#cadenas-de-markov"><i class="fa fa-check"></i><b>3.4</b> Cadenas de Markov</a></li>
<li class="chapter" data-level="3.5" data-path="deriva.html"><a href="deriva.html#tamaño-efectivo-poblacional"><i class="fa fa-check"></i><b>3.5</b> Tamaño efectivo poblacional</a></li>
<li class="chapter" data-level="3.6" data-path="deriva.html"><a href="deriva.html#aproximación-de-difusión"><i class="fa fa-check"></i><b>3.6</b> Aproximación de difusión</a></li>
<li class="chapter" data-level="3.7" data-path="deriva.html"><a href="deriva.html#probabilidad-de-fijación-y-tiempos-de-fijación"><i class="fa fa-check"></i><b>3.7</b> Probabilidad de fijación y tiempos de fijación</a></li>
<li class="chapter" data-level="3.8" data-path="deriva.html"><a href="deriva.html#el-modelo-coalescente"><i class="fa fa-check"></i><b>3.8</b> El modelo coalescente</a></li>
<li class="chapter" data-level="3.9" data-path="deriva.html"><a href="deriva.html#conclusión-2"><i class="fa fa-check"></i><b>3.9</b> Conclusión</a></li>
<li class="chapter" data-level="3.10" data-path="deriva.html"><a href="deriva.html#actividades-2"><i class="fa fa-check"></i><b>3.10</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="4" data-path="seleccion.html"><a href="seleccion.html"><i class="fa fa-check"></i><b>4</b> Selección natural</a>
<ul>
<li class="chapter" data-level="4.1" data-path="seleccion.html"><a href="seleccion.html#el-concepto-de-fitness"><i class="fa fa-check"></i><b>4.1</b> El concepto de “<em>fitness</em>”</a></li>
<li class="chapter" data-level="4.2" data-path="seleccion.html"><a href="seleccion.html#selección-natural-en-el-modelo-de-un-locus-con-dos-alelos"><i class="fa fa-check"></i><b>4.2</b> Selección natural en el modelo de un locus con dos alelos</a></li>
<li class="chapter" data-level="4.3" data-path="seleccion.html"><a href="seleccion.html#diferentes-formas-de-selección"><i class="fa fa-check"></i><b>4.3</b> Diferentes formas de selección</a></li>
<li class="chapter" data-level="4.4" data-path="seleccion.html"><a href="seleccion.html#el-teorema-fundamental-de-la-selección-natural"><i class="fa fa-check"></i><b>4.4</b> El teorema fundamental de la selección natural</a></li>
<li class="chapter" data-level="4.5" data-path="seleccion.html"><a href="seleccion.html#equilibrio-selección-mutación"><i class="fa fa-check"></i><b>4.5</b> Equilibrio selección-mutación</a></li>
<li class="chapter" data-level="4.6" data-path="seleccion.html"><a href="seleccion.html#la-fuerza-de-la-selección-natural"><i class="fa fa-check"></i><b>4.6</b> La fuerza de la selección natural</a></li>
<li class="chapter" data-level="4.7" data-path="seleccion.html"><a href="seleccion.html#equilibrio-selección-deriva"><i class="fa fa-check"></i><b>4.7</b> Equilibrio selección-deriva</a></li>
<li class="chapter" data-level="4.8" data-path="seleccion.html"><a href="seleccion.html#otros-tipos-de-selección-y-complejidades"><i class="fa fa-check"></i><b>4.8</b> Otros tipos de selección y complejidades</a></li>
<li class="chapter" data-level="4.9" data-path="seleccion.html"><a href="seleccion.html#conclusión-3"><i class="fa fa-check"></i><b>4.9</b> Conclusión</a></li>
<li class="chapter" data-level="4.10" data-path="seleccion.html"><a href="seleccion.html#actividades-3"><i class="fa fa-check"></i><b>4.10</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="5" data-path="dosloci.html"><a href="dosloci.html"><i class="fa fa-check"></i><b>5</b> Dinámica de 2 <em>loci</em></a>
<ul>
<li class="chapter" data-level="5.1" data-path="dosloci.html"><a href="dosloci.html#desequilibrio-de-ligamiento-y-recombinación"><i class="fa fa-check"></i><b>5.1</b> Desequilibrio de ligamiento y recombinación</a></li>
<li class="chapter" data-level="5.2" data-path="dosloci.html"><a href="dosloci.html#la-evolución-en-el-tiempo-del-desequilibrio-de-ligamiento"><i class="fa fa-check"></i><b>5.2</b> La evolución en el tiempo del desequilibrio de ligamiento</a></li>
<li class="chapter" data-level="5.3" data-path="dosloci.html"><a href="dosloci.html#otras-medidas-de-asociación"><i class="fa fa-check"></i><b>5.3</b> Otras medidas de asociación</a></li>
<li class="chapter" data-level="5.4" data-path="dosloci.html"><a href="dosloci.html#selección-en-modelos-de-dos-loci"><i class="fa fa-check"></i><b>5.4</b> Selección en modelos de dos <em>loci</em></a></li>
<li class="chapter" data-level="5.5" data-path="dosloci.html"><a href="dosloci.html#arrastre-genético-genetic-hitchhiking-o-genetic-draft"><i class="fa fa-check"></i><b>5.5</b> Arrastre genético (“<em>genetic hitchhiking</em>” o “<em>genetic draft</em>”)</a></li>
<li class="chapter" data-level="5.6" data-path="dosloci.html"><a href="dosloci.html#causas-del-desequilibrio-de-ligamiento"><i class="fa fa-check"></i><b>5.6</b> Causas del desequilibrio de ligamiento</a></li>
<li class="chapter" data-level="5.7" data-path="dosloci.html"><a href="dosloci.html#conclusión-4"><i class="fa fa-check"></i><b>5.7</b> Conclusión</a></li>
<li class="chapter" data-level="5.8" data-path="dosloci.html"><a href="dosloci.html#actividades-4"><i class="fa fa-check"></i><b>5.8</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="6" data-path="aparnoalazar.html"><a href="aparnoalazar.html"><i class="fa fa-check"></i><b>6</b> Apareamientos no-aleatorios</a>
<ul>
<li class="chapter" data-level="6.1" data-path="aparnoalazar.html"><a href="aparnoalazar.html#el-concepto-de-identidad-por-ascendencia-ibd"><i class="fa fa-check"></i><b>6.1</b> El concepto de “identidad por ascendencia” (IBD)</a></li>
<li class="chapter" data-level="6.2" data-path="aparnoalazar.html"><a href="aparnoalazar.html#generalización-de-hardy-weinberg-para-apareamientos-no-aleatorios"><i class="fa fa-check"></i><b>6.2</b> Generalización de Hardy-Weinberg para apareamientos no-aleatorios</a></li>
<li class="chapter" data-level="6.3" data-path="aparnoalazar.html"><a href="aparnoalazar.html#f-como-correlación-entre-gametos-unidos"><i class="fa fa-check"></i><b>6.3</b> <span class="math inline">\(F\)</span> como correlación entre gametos unidos</a></li>
<li class="chapter" data-level="6.4" data-path="aparnoalazar.html"><a href="aparnoalazar.html#endocría-y-depresión-endogámica"><i class="fa fa-check"></i><b>6.4</b> Endocría y depresión endogámica</a></li>
<li class="chapter" data-level="6.5" data-path="aparnoalazar.html"><a href="aparnoalazar.html#un-caso-extremo-la-autogamia"><i class="fa fa-check"></i><b>6.5</b> Un caso extremo: la autogamia</a></li>
<li class="chapter" data-level="6.6" data-path="aparnoalazar.html"><a href="aparnoalazar.html#el-coeficiente-de-endocría-y-los-estadísticos-f"><i class="fa fa-check"></i><b>6.6</b> El coeficiente de endocría y los estadísticos <em>F</em></a></li>
<li class="chapter" data-level="6.7" data-path="aparnoalazar.html"><a href="aparnoalazar.html#el-efecto-wahlund"><i class="fa fa-check"></i><b>6.7</b> El efecto Wahlund</a></li>
<li class="chapter" data-level="6.8" data-path="aparnoalazar.html"><a href="aparnoalazar.html#subdivisión-migración-y-el-modelo-de-islas"><i class="fa fa-check"></i><b>6.8</b> Subdivisión, migración y el modelo de islas</a></li>
<li class="chapter" data-level="6.9" data-path="aparnoalazar.html"><a href="aparnoalazar.html#mecanismos-de-especiación"><i class="fa fa-check"></i><b>6.9</b> Mecanismos de especiación</a></li>
<li class="chapter" data-level="6.10" data-path="aparnoalazar.html"><a href="aparnoalazar.html#conclusión-5"><i class="fa fa-check"></i><b>6.10</b> Conclusión</a></li>
<li class="chapter" data-level="6.11" data-path="aparnoalazar.html"><a href="aparnoalazar.html#actividades-5"><i class="fa fa-check"></i><b>6.11</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="7" data-path="microbial.html"><a href="microbial.html"><i class="fa fa-check"></i><b>7</b> Genética de poblaciones microbianas</a>
<ul>
<li class="chapter" data-level="7.1" data-path="microbial.html"><a href="microbial.html#genómica-y-mecanismos-de-herencia-en-procariotas"><i class="fa fa-check"></i><b>7.1</b> Genómica y mecanismos de herencia en procariotas</a></li>
<li class="chapter" data-level="7.2" data-path="microbial.html"><a href="microbial.html#dinámica-de-las-poblaciones-bacterianas"><i class="fa fa-check"></i><b>7.2</b> Dinámica de las poblaciones bacterianas</a></li>
<li class="chapter" data-level="7.3" data-path="microbial.html"><a href="microbial.html#modelos-haploides-de-selección-natural"><i class="fa fa-check"></i><b>7.3</b> Modelos haploides de selección natural</a></li>
<li class="chapter" data-level="7.4" data-path="microbial.html"><a href="microbial.html#los-modelos-de-moran-y-de-fisión-vs-el-de-wright-fisher"><i class="fa fa-check"></i><b>7.4</b> Los modelos de Moran y de fisión <em>vs</em> el de Wright-Fisher</a></li>
<li class="chapter" data-level="7.5" data-path="microbial.html"><a href="microbial.html#el-rol-de-la-transferencia-horizontal"><i class="fa fa-check"></i><b>7.5</b> El rol de la transferencia horizontal</a></li>
<li class="chapter" data-level="7.6" data-path="microbial.html"><a href="microbial.html#seleccionismo-vs-neutralismo-los-procariotas-en-el-debate"><i class="fa fa-check"></i><b>7.6</b> Seleccionismo <em>vs</em> neutralismo: los procariotas en el debate</a></li>
<li class="chapter" data-level="7.7" data-path="microbial.html"><a href="microbial.html#genómica-poblacional"><i class="fa fa-check"></i><b>7.7</b> Genómica poblacional</a></li>
<li class="chapter" data-level="7.8" data-path="microbial.html"><a href="microbial.html#genes-de-resistencia"><i class="fa fa-check"></i><b>7.8</b> Genes de resistencia</a></li>
<li class="chapter" data-level="7.9" data-path="microbial.html"><a href="microbial.html#introducción-a-la-epidemiología-modelos-compartimentales"><i class="fa fa-check"></i><b>7.9</b> Introducción a la epidemiología: modelos compartimentales</a></li>
<li class="chapter" data-level="7.10" data-path="microbial.html"><a href="microbial.html#conclusión-6"><i class="fa fa-check"></i><b>7.10</b> Conclusión</a></li>
<li class="chapter" data-level="7.11" data-path="microbial.html"><a href="microbial.html#actividades-6"><i class="fa fa-check"></i><b>7.11</b> Actividades</a></li>
</ul></li>
<li class="part"><span><b>Parte III: Genética Cuantitativa</b></span></li>
<li class="chapter" data-level="8" data-path="modelogenbas.html"><a href="modelogenbas.html"><i class="fa fa-check"></i><b>8</b> El modelo genético básico</a>
<ul>
<li class="chapter" data-level="8.1" data-path="modelogenbas.html"><a href="modelogenbas.html#variación-continua-y-discreta"><i class="fa fa-check"></i><b>8.1</b> Variación continua y discreta</a></li>
<li class="chapter" data-level="8.2" data-path="modelogenbas.html"><a href="modelogenbas.html#el-modelo-genético-básico"><i class="fa fa-check"></i><b>8.2</b> El modelo genético básico</a></li>
<li class="chapter" data-level="8.3" data-path="modelogenbas.html"><a href="modelogenbas.html#modelo-genético-básico-un-locus-con-dos-alelos"><i class="fa fa-check"></i><b>8.3</b> Modelo genético básico: un <em>locus</em> con dos alelos</a></li>
<li class="chapter" data-level="8.4" data-path="modelogenbas.html"><a href="modelogenbas.html#efecto-medio"><i class="fa fa-check"></i><b>8.4</b> Efecto medio</a></li>
<li class="chapter" data-level="8.5" data-path="modelogenbas.html"><a href="modelogenbas.html#valor-reproductivo-o-valor-de-cría"><i class="fa fa-check"></i><b>8.5</b> Valor reproductivo (o valor de cría)</a></li>
<li class="chapter" data-level="8.6" data-path="modelogenbas.html"><a href="modelogenbas.html#desvío-de-dominancia"><i class="fa fa-check"></i><b>8.6</b> Desvío de dominancia</a></li>
<li class="chapter" data-level="8.7" data-path="modelogenbas.html"><a href="modelogenbas.html#interacción-genotipo-x-ambiente"><i class="fa fa-check"></i><b>8.7</b> Interacción Genotipo x Ambiente</a></li>
<li class="chapter" data-level="8.8" data-path="modelogenbas.html"><a href="modelogenbas.html#la-varianza-en-el-modelo-genético-básico"><i class="fa fa-check"></i><b>8.8</b> La varianza en el modelo genético básico</a></li>
<li class="chapter" data-level="8.9" data-path="modelogenbas.html"><a href="modelogenbas.html#conclusión-7"><i class="fa fa-check"></i><b>8.9</b> Conclusión</a></li>
<li class="chapter" data-level="8.10" data-path="modelogenbas.html"><a href="modelogenbas.html#actividades-7"><i class="fa fa-check"></i><b>8.10</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="9" data-path="parentesco.html"><a href="parentesco.html"><i class="fa fa-check"></i><b>9</b> Parentesco y semejanza entre parientes</a>
<ul>
<li class="chapter" data-level="9.1" data-path="parentesco.html"><a href="parentesco.html#parentesco-1"><i class="fa fa-check"></i><b>9.1</b> Parentesco</a></li>
<li class="chapter" data-level="9.2" data-path="parentesco.html"><a href="parentesco.html#parentesco-aditivo"><i class="fa fa-check"></i><b>9.2</b> Parentesco aditivo</a></li>
<li class="chapter" data-level="9.3" data-path="parentesco.html"><a href="parentesco.html#parentesco-de-dominancia"><i class="fa fa-check"></i><b>9.3</b> Parentesco de dominancia</a></li>
<li class="chapter" data-level="9.4" data-path="parentesco.html"><a href="parentesco.html#semejanza-entre-parientes"><i class="fa fa-check"></i><b>9.4</b> Semejanza entre parientes</a></li>
<li class="chapter" data-level="9.5" data-path="parentesco.html"><a href="parentesco.html#estimación-de-las-varianzas-aditiva-y-de-dominancia"><i class="fa fa-check"></i><b>9.5</b> Estimación de las varianzas aditiva y de dominancia</a></li>
<li class="chapter" data-level="9.6" data-path="parentesco.html"><a href="parentesco.html#parentesco-genómico"><i class="fa fa-check"></i><b>9.6</b> Parentesco genómico</a></li>
<li class="chapter" data-level="9.7" data-path="parentesco.html"><a href="parentesco.html#estudios-de-ascendencia-ancestría"><i class="fa fa-check"></i><b>9.7</b> Estudios de ascendencia (“ancestría”)</a></li>
<li class="chapter" data-level="9.8" data-path="parentesco.html"><a href="parentesco.html#conclusión-8"><i class="fa fa-check"></i><b>9.8</b> Conclusión</a></li>
<li class="chapter" data-level="9.9" data-path="parentesco.html"><a href="parentesco.html#actividades-8"><i class="fa fa-check"></i><b>9.9</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="10" data-path="pargen.html"><a href="pargen.html"><i class="fa fa-check"></i><b>10</b> Parámetros genéticos: heredabilidad y repetibilidad</a>
<ul>
<li class="chapter" data-level="10.1" data-path="pargen.html"><a href="pargen.html#heredabilidad"><i class="fa fa-check"></i><b>10.1</b> Heredabilidad</a></li>
<li class="chapter" data-level="10.2" data-path="pargen.html"><a href="pargen.html#heredabilidad-en-sentido-amplio-y-sentido-estricto"><i class="fa fa-check"></i><b>10.2</b> Heredabilidad en sentido amplio y sentido estricto</a></li>
<li class="chapter" data-level="10.3" data-path="pargen.html"><a href="pargen.html#heredabilidad-lograda"><i class="fa fa-check"></i><b>10.3</b> Heredabilidad lograda</a></li>
<li class="chapter" data-level="10.4" data-path="pargen.html"><a href="pargen.html#heredabilidad-en-poblaciones-agronómicaslab.-vs-poblaciones-naturales"><i class="fa fa-check"></i><b>10.4</b> Heredabilidad en poblaciones agronómicas/lab. vs poblaciones naturales</a></li>
<li class="chapter" data-level="10.5" data-path="pargen.html"><a href="pargen.html#heredabilidad-y-filogenética"><i class="fa fa-check"></i><b>10.5</b> Heredabilidad y filogenética</a></li>
<li class="chapter" data-level="10.6" data-path="pargen.html"><a href="pargen.html#heredabilidad-en-la-era-genómica"><i class="fa fa-check"></i><b>10.6</b> Heredabilidad en la era genómica</a></li>
<li class="chapter" data-level="10.7" data-path="pargen.html"><a href="pargen.html#métodos-más-avanzados-de-estimación"><i class="fa fa-check"></i><b>10.7</b> Métodos más avanzados de estimación</a></li>
<li class="chapter" data-level="10.8" data-path="pargen.html"><a href="pargen.html#repetibilidad"><i class="fa fa-check"></i><b>10.8</b> Repetibilidad</a></li>
<li class="chapter" data-level="10.9" data-path="pargen.html"><a href="pargen.html#la-repetibilidad-como-herramienta-en-la-predicción"><i class="fa fa-check"></i><b>10.9</b> La repetibilidad como herramienta en la predicción</a></li>
<li class="chapter" data-level="10.10" data-path="pargen.html"><a href="pargen.html#evolucionabilidad"><i class="fa fa-check"></i><b>10.10</b> Evolucionabilidad</a></li>
<li class="chapter" data-level="10.11" data-path="pargen.html"><a href="pargen.html#conclusión-9"><i class="fa fa-check"></i><b>10.11</b> Conclusión</a></li>
<li class="chapter" data-level="10.12" data-path="pargen.html"><a href="pargen.html#actividades-9"><i class="fa fa-check"></i><b>10.12</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="11" data-path="selartifI.html"><a href="selartifI.html"><i class="fa fa-check"></i><b>11</b> Selección Artificial I</a>
<ul>
<li class="chapter" data-level="11.1" data-path="selartifI.html"><a href="selartifI.html#factores-de-corrección"><i class="fa fa-check"></i><b>11.1</b> Factores de corrección</a></li>
<li class="chapter" data-level="11.2" data-path="selartifI.html"><a href="selartifI.html#la-respuesta-a-la-selección-y-su-predicción"><i class="fa fa-check"></i><b>11.2</b> La respuesta a la selección y su predicción</a></li>
<li class="chapter" data-level="11.3" data-path="selartifI.html"><a href="selartifI.html#diferencial-de-selección-e-intensidad-de-selección"><i class="fa fa-check"></i><b>11.3</b> Diferencial de selección e intensidad de selección</a></li>
<li class="chapter" data-level="11.4" data-path="selartifI.html"><a href="selartifI.html#intensidad-de-selección-y-proporción-seleccionada"><i class="fa fa-check"></i><b>11.4</b> Intensidad de selección y proporción seleccionada</a></li>
<li class="chapter" data-level="11.5" data-path="selartifI.html"><a href="selartifI.html#intervalo-generacional"><i class="fa fa-check"></i><b>11.5</b> Intervalo generacional</a></li>
<li class="chapter" data-level="11.6" data-path="selartifI.html"><a href="selartifI.html#medidas-de-la-respuesta"><i class="fa fa-check"></i><b>11.6</b> Medidas de la respuesta</a></li>
<li class="chapter" data-level="11.7" data-path="selartifI.html"><a href="selartifI.html#progreso-genético-generacional-y-anual"><i class="fa fa-check"></i><b>11.7</b> Progreso genético generacional y anual</a></li>
<li class="chapter" data-level="11.8" data-path="selartifI.html"><a href="selartifI.html#cambio-en-las-frecuencias-alélicas-bajo-selección-artificial"><i class="fa fa-check"></i><b>11.8</b> Cambio en las frecuencias alélicas bajo selección artificial</a></li>
<li class="chapter" data-level="11.9" data-path="selartifI.html"><a href="selartifI.html#el-diferencial-de-selección-direccional-y-la-identidad-de-robertson-price"><i class="fa fa-check"></i><b>11.9</b> El diferencial de selección direccional y la identidad de Robertson-Price</a></li>
<li class="chapter" data-level="11.10" data-path="selartifI.html"><a href="selartifI.html#conclusión-10"><i class="fa fa-check"></i><b>11.10</b> Conclusión</a></li>
<li class="chapter" data-level="11.11" data-path="selartifI.html"><a href="selartifI.html#actividades-10"><i class="fa fa-check"></i><b>11.11</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="12" data-path="correlacionada.html"><a href="correlacionada.html"><i class="fa fa-check"></i><b>12</b> Correlaciones y respuesta correlacionada</a>
<ul>
<li class="chapter" data-level="12.1" data-path="correlacionada.html"><a href="correlacionada.html#causas-genéticas-y-ambientales-de-las-correlaciones"><i class="fa fa-check"></i><b>12.1</b> Causas genéticas y ambientales de las correlaciones</a></li>
<li class="chapter" data-level="12.2" data-path="correlacionada.html"><a href="correlacionada.html#introducción-al-path-analysis"><i class="fa fa-check"></i><b>12.2</b> Introducción al “<em>path analysis</em>”</a></li>
<li class="chapter" data-level="12.3" data-path="correlacionada.html"><a href="correlacionada.html#métodos-para-determinar-la-correlación-genética"><i class="fa fa-check"></i><b>12.3</b> Métodos para determinar la correlación genética</a></li>
<li class="chapter" data-level="12.4" data-path="correlacionada.html"><a href="correlacionada.html#la-correlación-fenotípica-y-su-relación-con-otras-correlaciones"><i class="fa fa-check"></i><b>12.4</b> La correlación fenotípica y su relación con otras correlaciones</a></li>
<li class="chapter" data-level="12.5" data-path="correlacionada.html"><a href="correlacionada.html#respuesta-correlacionada"><i class="fa fa-check"></i><b>12.5</b> Respuesta correlacionada</a></li>
<li class="chapter" data-level="12.6" data-path="correlacionada.html"><a href="correlacionada.html#matrices-de-varianza-covarianza"><i class="fa fa-check"></i><b>12.6</b> Matrices de varianza-covarianza</a></li>
<li class="chapter" data-level="12.7" data-path="correlacionada.html"><a href="correlacionada.html#la-forma-generalizada-de-la-ecuación-del-criador"><i class="fa fa-check"></i><b>12.7</b> La forma generalizada de la ecuación del criador</a></li>
<li class="chapter" data-level="12.8" data-path="correlacionada.html"><a href="correlacionada.html#conclusión-11"><i class="fa fa-check"></i><b>12.8</b> Conclusión</a></li>
<li class="chapter" data-level="12.9" data-path="correlacionada.html"><a href="correlacionada.html#actividades-11"><i class="fa fa-check"></i><b>12.9</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="13" data-path="selartifII.html"><a href="selartifII.html"><i class="fa fa-check"></i><b>13</b> Selección Artificial II</a>
<ul>
<li class="chapter" data-level="13.1" data-path="selartifII.html"><a href="selartifII.html#criterios-y-objetivos-de-selección"><i class="fa fa-check"></i><b>13.1</b> Criterios y objetivos de selección</a></li>
<li class="chapter" data-level="13.2" data-path="selartifII.html"><a href="selartifII.html#selección-basada-en-un-solo-tipo-de-fuente-de-información"><i class="fa fa-check"></i><b>13.2</b> Selección basada en un solo tipo de fuente de información</a></li>
<li class="chapter" data-level="13.3" data-path="selartifII.html"><a href="selartifII.html#combinando-la-información-proporcionada-por-diferentes-tipos-de-parientes"><i class="fa fa-check"></i><b>13.3</b> Combinando la información proporcionada por diferentes tipos de parientes</a></li>
<li class="chapter" data-level="13.4" data-path="selartifII.html"><a href="selartifII.html#métodos-de-selección-para-varias-características"><i class="fa fa-check"></i><b>13.4</b> Métodos de selección para varias características</a></li>
<li class="chapter" data-level="13.5" data-path="selartifII.html"><a href="selartifII.html#índices-de-selección-para-múltiples-características"><i class="fa fa-check"></i><b>13.5</b> Índices de selección para múltiples características</a></li>
<li class="chapter" data-level="13.6" data-path="selartifII.html"><a href="selartifII.html#métodos-y-técnicas-avanzadas-de-selección"><i class="fa fa-check"></i><b>13.6</b> Métodos y técnicas avanzadas de selección</a></li>
<li class="chapter" data-level="13.7" data-path="selartifII.html"><a href="selartifII.html#conclusión-12"><i class="fa fa-check"></i><b>13.7</b> Conclusión</a></li>
<li class="chapter" data-level="13.8" data-path="selartifII.html"><a href="selartifII.html#actividades-12"><i class="fa fa-check"></i><b>13.8</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="14" data-path="endoexo.html"><a href="endoexo.html"><i class="fa fa-check"></i><b>14</b> Endocría, exocría, consanguinidad y depresión endogámica</a>
<ul>
<li class="chapter" data-level="14.1" data-path="endoexo.html"><a href="endoexo.html#el-aumento-de-la-consanguinidad-a-partir-del-número-de-individuos"><i class="fa fa-check"></i><b>14.1</b> El aumento de la consanguinidad a partir del número de individuos</a></li>
<li class="chapter" data-level="14.2" data-path="endoexo.html"><a href="endoexo.html#el-coeficiente-de-consanguinidad-en-razas-lecheras"><i class="fa fa-check"></i><b>14.2</b> El coeficiente de consanguinidad en razas lecheras</a></li>
<li class="chapter" data-level="14.3" data-path="endoexo.html"><a href="endoexo.html#depresión-endogámica"><i class="fa fa-check"></i><b>14.3</b> Depresión endogámica</a></li>
<li class="chapter" data-level="14.4" data-path="endoexo.html"><a href="endoexo.html#exocría-y-heterosis"><i class="fa fa-check"></i><b>14.4</b> Exocría y heterosis</a></li>
<li class="chapter" data-level="14.5" data-path="endoexo.html"><a href="endoexo.html#modelo-genético-de-cruzamientos"><i class="fa fa-check"></i><b>14.5</b> Modelo genético de cruzamientos</a></li>
<li class="chapter" data-level="14.6" data-path="endoexo.html"><a href="endoexo.html#conclusión-13"><i class="fa fa-check"></i><b>14.6</b> Conclusión</a></li>
<li class="chapter" data-level="14.7" data-path="endoexo.html"><a href="endoexo.html#actividades-13"><i class="fa fa-check"></i><b>14.7</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="15" data-path="GxE.html"><a href="GxE.html"><i class="fa fa-check"></i><b>15</b> Normas de reacción e interacción genotipo x ambiente</a>
<ul>
<li class="chapter" data-level="15.1" data-path="GxE.html"><a href="GxE.html#plasticidad-fenotípica-y-normas-de-reacción"><i class="fa fa-check"></i><b>15.1</b> Plasticidad fenotípica y normas de reacción</a></li>
<li class="chapter" data-level="15.2" data-path="GxE.html"><a href="GxE.html#interacción-gxe-en-dos-ambientes"><i class="fa fa-check"></i><b>15.2</b> Interacción GxE en dos ambientes</a></li>
<li class="chapter" data-level="15.3" data-path="GxE.html"><a href="GxE.html#correlación-genética-a-través-de-dos-ambientes"><i class="fa fa-check"></i><b>15.3</b> Correlación genética a través de dos ambientes</a></li>
<li class="chapter" data-level="15.4" data-path="GxE.html"><a href="GxE.html#genética-cuantitativa-de-la-interacción-gxe"><i class="fa fa-check"></i><b>15.4</b> Genética cuantitativa de la interacción GxE</a></li>
<li class="chapter" data-level="15.5" data-path="GxE.html"><a href="GxE.html#otros-ejemplos-de-interacción-genotipo-ambiente"><i class="fa fa-check"></i><b>15.5</b> Otros ejemplos de interacción genotipo-ambiente</a></li>
<li class="chapter" data-level="15.6" data-path="GxE.html"><a href="GxE.html#conclusión-14"><i class="fa fa-check"></i><b>15.6</b> Conclusión</a></li>
<li class="chapter" data-level="15.7" data-path="GxE.html"><a href="GxE.html#actividades-14"><i class="fa fa-check"></i><b>15.7</b> Actividades</a></li>
</ul></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html"><i class="fa fa-check"></i>Apéndice A: Conceptos matemáticos básicos</a>
<ul>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#fracciones"><i class="fa fa-check"></i>FRACCIONES</a></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#proporcionalidad"><i class="fa fa-check"></i>PROPORCIONALIDAD</a></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#cifras-significativas-y-redondeo"><i class="fa fa-check"></i>CIFRAS SIGNIFICATIVAS Y REDONDEO</a></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#notación-científica"><i class="fa fa-check"></i>NOTACIÓN CIENTÍFICA</a></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#ecuaciones"><i class="fa fa-check"></i>ECUACIONES</a></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#funciones"><i class="fa fa-check"></i>FUNCIONES</a></li>
<li class="chapter" data-level="" data-path="apéndice-a-conceptos-matemáticos-básicos.html"><a href="apéndice-a-conceptos-matemáticos-básicos.html#sumatoria-y-productoria"><i class="fa fa-check"></i>SUMATORIA Y PRODUCTORIA</a></li>
</ul></li>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html"><i class="fa fa-check"></i>CÁLCULO DIFERENCIAL E INTEGRAL</a>
<ul>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html#límites"><i class="fa fa-check"></i>LÍMITES</a></li>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html#gráfica-de-límites_fx"><i class="fa fa-check"></i>GRÁFICA DE LÍMITES_FX</a></li>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html#derivadas"><i class="fa fa-check"></i>DERIVADAS</a></li>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html#gráfica-de-ptos-críticos"><i class="fa fa-check"></i>GRÁFICA DE PTOS CRÍTICOS</a></li>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html#integrales"><i class="fa fa-check"></i>INTEGRALES</a></li>
<li class="chapter" data-level="" data-path="cálculo-diferencial-e-integral.html"><a href="cálculo-diferencial-e-integral.html#ecuaciones-diferenciales"><i class="fa fa-check"></i>ECUACIONES DIFERENCIALES</a></li>
</ul></li>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><i class="fa fa-check"></i>Apéndice C: Álgebra lineal y geometría analítica</a>
<ul>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html#matrices"><i class="fa fa-check"></i>MATRICES</a></li>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html#norma-producto-escalar-y-producto-vectorial"><i class="fa fa-check"></i>NORMA, PRODUCTO ESCALAR Y PRODUCTO VECTORIAL</a></li>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html#agregar-imagen-vectores"><i class="fa fa-check"></i>AGREGAR IMAGEN VECTORES</a></li>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html#transformaciones-lineales"><i class="fa fa-check"></i>TRANSFORMACIONES LINEALES</a></li>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html#valores-y-vectores-propios"><i class="fa fa-check"></i>VALORES Y VECTORES PROPIOS</a></li>
<li class="chapter" data-level="" data-path="apéndice-c-álgebra-lineal-y-geometría-analítica.html"><a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html#derivada-de-la-forma-cuadrática"><i class="fa fa-check"></i>DERIVADA DE LA FORMA CUADRÁTICA</a></li>
</ul></li>
<li class="chapter" data-level="" data-path="apéndice-d-probabilidad-y-estadística.html"><a href="apéndice-d-probabilidad-y-estadística.html"><i class="fa fa-check"></i>Apéndice D: Probabilidad y estadística</a>
<ul>
<li class="chapter" data-level="" data-path="apéndice-d-probabilidad-y-estadística.html"><a href="apéndice-d-probabilidad-y-estadística.html#probabilidad-y-conteo"><i class="fa fa-check"></i>PROBABILIDAD Y CONTEO</a></li>
<li class="chapter" data-level="" data-path="apéndice-d-probabilidad-y-estadística.html"><a href="apéndice-d-probabilidad-y-estadística.html#variables-aleatorias"><i class="fa fa-check"></i>VARIABLES ALEATORIAS</a></li>
<li class="chapter" data-level="" data-path="apéndice-d-probabilidad-y-estadística.html"><a href="apéndice-d-probabilidad-y-estadística.html#estimadores"><i class="fa fa-check"></i>ESTIMADORES</a></li>
</ul></li>
<li class="chapter" data-level="16" data-path="bibliografia.html"><a href="bibliografia.html"><i class="fa fa-check"></i><b>16</b> Bibliografía</a></li>
<li class="divider"></li>
<li><a href="https://github.com/rstudio/bookdown" target="blank">Published with bookdown</a></li>
</ul>
</nav>
</div>
<div class="book-body">
<div class="body-inner">
<div class="book-header" role="navigation">
<h1>
<i class="fa fa-circle-o-notch fa-spin"></i><a href="./">Introducción a la Genética de Poblaciones y a la Genética Cuantitativa</a>
</h1>
</div>
<div class="page-wrapper" tabindex="-1" role="main">
<div class="page-inner">
<section class="normal" id="section-">
<div id="apéndice-d-probabilidad-y-estadística" class="section level1 unnumbered hasAnchor">
<h1>Apéndice D: Probabilidad y estadística<a href="apéndice-d-probabilidad-y-estadística.html#apéndice-d-probabilidad-y-estadística" class="anchor-section" aria-label="Anchor link to header"></a></h1>
<p>Este Apéndice se inspiró en material generado por el IMERL (Facultad de Ingeniería). El mismo se encuentra disponible para su libre consulta (ver <span class="citation">IMERL (<a href="#ref-apendice04pye">n.d.d</a>)</span>).</p>
<div id="probabilidad-y-conteo" class="section level2 unnumbered hasAnchor">
<h2>PROBABILIDAD Y CONTEO<a href="apéndice-d-probabilidad-y-estadística.html#probabilidad-y-conteo" class="anchor-section" aria-label="Anchor link to header"></a></h2>
<p>Intuitivamente, se define la probabilidad como la chance de que un evento ocurra frente a todo el universo de posibilidades.
Si se tiene un espacio muestral, definido como el conjunto de todos los resultados posibles que pueden ocurrir con igual probabilidad, y un evento <span class="math inline">\(A\)</span>, se define la probabilidad del evento <span class="math inline">\(A\)</span> como <span class="math inline">\(P(A) = \frac{\textit{casos favorables}}{\textit{casos posibles}}.\)</span></p>
<p>Las probabilidades cumplen tres reglas:
1. Son siempre positivas <span class="math inline">\((P(A)\leq 0)\)</span> para cualquier evento.
2. <span class="math inline">\(P(\Omega) = 1\)</span> donde <span class="math inline">\(\Omega\)</span> es el espacio muestral.
3. Dados <span class="math inline">\(k\)</span> eventos incompatibles (que no pueden ocurrir en simultáneo), <span class="math inline">\(P(A\cup B\cup...\cup K) = P(A) + P(B) + ... + P(K).\)</span></p>
<p>Sin embargo, contar los casos favorables no siempre es una tarea sencilla, por lo que se utilizan elementos de la teoría combinatoria para facilitar el conteo.</p>
<p><strong>Número factorial:</strong> El número <span class="math inline">\(n\)</span> factorial, denotado por <span class="math inline">\(n!\)</span>, se define como el producto de todos los números entre <span class="math inline">\(1\)</span> y <span class="math inline">\(n\)</span>: <span class="math inline">\(\Rightarrow n! = n \times (n-1) \times (n-2) \times ... \times (n-n+1).\)</span></p>
<p><strong>Arreglos:</strong> Los arreglos definen el número total de formas en que se pueden elegir <span class="math inline">\(k\)</span> elementos ordenados de un total de <span class="math inline">\(n\)</span> elementos. Para elegir el primer elemento se tienen <span class="math inline">\(n\)</span> opciones. Para el segundo elemento ya se descartó una opción, por lo que se pasa a tener <span class="math inline">\(n-1\)</span> posibilidades. Así sucesivamente hasta llegar al elemento <span class="math inline">\(k\)</span>, para el cual se tienen <span class="math inline">\(n-k+1\)</span> opciones. El número total de posibilidades se define entonces cómo:
<span class="math display">\[(n)_k = (A)_k^n = n \times (n-1) \times (n-2) \times ... \times (n-k+1) = \frac{n!}{(n-k)!}.\]</span></p>
<p><strong>Combinaciones:</strong> Las combinaciones definen el número total de formas en que se pueden elegir <span class="math inline">\(k\)</span> elementos no ordenados de un total de <span class="math inline">\(n\)</span> elementos. Si se tiene una lista no ordenada de <span class="math inline">\(k\)</span> elementos, se pueden formar <span class="math inline">\(k!\)</span> listas ordenadas. Esto quiere decir que por cada lista no ordenada, hay <span class="math inline">\(k!\)</span> listas ordenadas, lo que implica que las combinaciones no son más que arreglos divididos por <span class="math inline">\(k!\)</span>. Por tanto:
<span class="math display">\[\begin{pmatrix} n \\ k \end{pmatrix} = C_k^n = \frac{(A)_k^n }{k!} = \frac{n!}{k!(n-k)!}.\]</span></p>
<div id="probabilidad-condicional" class="section level3 unnumbered hasAnchor">
<h3>Probabilidad condicional<a href="apéndice-d-probabilidad-y-estadística.html#probabilidad-condicional" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>La <em>probabilidad condicional</em> define la probabilidad de que ocurra un evento cuando se sabe qué ocurrió previo a él. Formalmente, se tienen dos eventos <span class="math inline">\(A\)</span> y <span class="math inline">\(B\)</span> del espacio muestral <span class="math inline">\(\Omega\)</span> y se conoce que <span class="math inline">\(P(B) > 0\)</span>. Se define la probabilidad de <span class="math inline">\(A\)</span> dado <span class="math inline">\(B\)</span> como <span class="math inline">\(P(A|B) = \frac{P(A \cap B)}{P(B)}.\)</span></p>
<p><em>Ejemplo:</em>
Se tiran dos datos y se quiere saber la probabilidad de que la suma sea siete (a este evento lo llamaremos <span class="math inline">\(A\)</span>) dado que uno de ellos muestra un uno (evento <span class="math inline">\(B\)</span>). Por la definición de probabilidad condicional, queremos calcular <span class="math inline">\(P(A|B) = \frac{P(A \cap B)}{P(B)}\)</span>.</p>
<p>Comenzamos calculando la probabilidad de <span class="math inline">\(B\)</span>. De los 36 resultados posibles (<span class="math inline">\(6^2\)</span>), 11 de ellos tienen un uno en al menos uno de los dados <span class="math inline">\(\Rightarrow P(B) = \frac{11}{36}\)</span>.</p>
<p>Para la probabilidad de la intersección, hay que tener en cuenta que hay 6 combinaciones posibles con las cuales la suma de los dos dados da 7. Sin embargo, solo dos de ellas contienen un uno en alguno de los dos dados, por lo tanto: <span class="math inline">\(\Rightarrow P(A \cap B) = \frac{2}{36}\)</span>.</p>
<p>Juntando los dos resultados, obtenemos que <span class="math inline">\(P(A|B) = \frac{\frac{2}{36}}{\frac{11}{36}} = \frac{2}{11}\)</span>.</p>
<div id="fórmula-de-probabilidad-total" class="section level4 unnumbered hasAnchor">
<h4>Fórmula de probabilidad total<a href="apéndice-d-probabilidad-y-estadística.html#fórmula-de-probabilidad-total" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Sean <span class="math inline">\(C_1, C_2, ..., C_n\)</span> una partición numerable de <span class="math inline">\(\Omega\)</span> cuyos eventos tienen probabilidades positivas. Sea <span class="math inline">\(A\)</span> un evento cualquiera. Entonces <span class="math inline">\(P(A) = \sum_{i=1}^n P(A|C_i)P(C_i)\)</span>.</p>
</div>
<div id="teorema-de-bayes" class="section level4 unnumbered hasAnchor">
<h4>Teorema de Bayes<a href="apéndice-d-probabilidad-y-estadística.html#teorema-de-bayes" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Sean <span class="math inline">\(C_1, C_2, ..., C_n\)</span> una partición numerable de <span class="math inline">\(\Omega\)</span> cuyos eventos tienen probabilidades positivas. Sea <span class="math inline">\(A\)</span> un evento con probabilidad positiva, entonces: <span class="math inline">\(P(C_k|A) = \frac{P(C_k)P(A|C_k)}{\sum\limits_{i=1}^n P(A|C_i)P(C_i)}\)</span></p>
<div style="page-break-after: always;"></div>
</div>
</div>
</div>
<div id="variables-aleatorias" class="section level2 unnumbered hasAnchor">
<h2>VARIABLES ALEATORIAS<a href="apéndice-d-probabilidad-y-estadística.html#variables-aleatorias" class="anchor-section" aria-label="Anchor link to header"></a></h2>
<p>Una variable aleatoria es una función <span class="math inline">\(X: \Omega \rightarrow \mathbb{R}\)</span> que a cada elemento <span class="math inline">\(\omega\)</span> del espacio muestral le asigna un número real <span class="math inline">\(X(\omega)\)</span>. Se definen variables aleatorias discretas o continuas en función de como está conformado el espacio muestral. Una variable aleatoria es discreta si el recorrido, los valores que la variable puede tomar, es numerable. Es decir, se pueden ordenar en una sucesión. En cambio, es continua si sus valores consisten en uno o más intervalos de la recta de los reales.</p>
<div id="variables-aleatorias-discretas" class="section level3 unnumbered hasAnchor">
<h3>Variables Aleatorias Discretas<a href="apéndice-d-probabilidad-y-estadística.html#variables-aleatorias-discretas" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Para las variables aleatorias discretas podemos definir dos formas de representación:</p>
<p><strong>Función de probabilidad puntual:</strong>
La función de probabilidad puntual de una variable aleatoria discreta <span class="math inline">\(X: \Omega \rightarrow X\)</span> es una función <span class="math inline">\(p: \mathbb{R} \rightarrow [0,1]\)</span>, definida por <span class="math inline">\(p(x) = P(X = x)\)</span>, que indica para cada punto de <span class="math inline">\(x\)</span> de <span class="math inline">\(\mathbb{R}\)</span> la probabilidad de que <span class="math inline">\(X\)</span> tome ese valor. Si <span class="math inline">\(x\)</span> no es un posible valor de <span class="math inline">\(X\)</span>, <span class="math inline">\(p(x) = 1\)</span>. Además, <span class="math inline">\(\sum\limits_{x\in \mathbb{R}_X} p(x) =1\)</span> debido a que en <span class="math inline">\(R_X\)</span> están todos los posibles valores de <span class="math inline">\(X\)</span>.</p>
<embed src="figuras/fpp.pdf" width="70%" style="display: block; margin: auto;" type="application/pdf" />
<p><em>Ejemplo:</em>
Función de probabilidad puntual de la suma del resultado de lanzar dos dados.</p>
<p><strong>Función de distribución acumulada:</strong>
La función de distribución acumulada de una variable aleatoria <span class="math inline">\(X\)</span> es una función <span class="math inline">\(F: \mathbb{R} \rightarrow [0,1]\)</span> definida por <span class="math inline">\(F(x) = P(X \leq x)\)</span>. <span class="math inline">\(F\)</span> da la probabilidad acumulada al sumar las probabilidades <span class="math inline">\(p(y)\)</span> con <span class="math inline">\(y \leq x\)</span>.</p>
<embed src="figuras/fda.pdf" width="70%" style="display: block; margin: auto;" type="application/pdf" />
<div id="distribución-de-probabilidad-conjunta" class="section level4 unnumbered hasAnchor">
<h4>Distribución de probabilidad conjunta<a href="apéndice-d-probabilidad-y-estadística.html#distribución-de-probabilidad-conjunta" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>La distribución de probabilidad conjunta muestra como se comportan las variables <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> y las probabilidades de los distintos resultados posibles. Formalmente, es la función <span class="math inline">\(p: \mathbb{R}^2 \rightarrow [0,1]\)</span> definida por <span class="math inline">\(p(x,y) = P(X = x, Y = y)\)</span>.</p>
<p>Las distribuciones de <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> obtenidas a partir de la distribución conjunta se llaman <em>distribuciones marginales</em>.</p>
</div>
</div>
<div id="variables-aleatorias-continuas" class="section level3 unnumbered hasAnchor">
<h3>Variables Aleatorias Continuas<a href="apéndice-d-probabilidad-y-estadística.html#variables-aleatorias-continuas" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Se trabajará específicamente con las variables aleatorias absolutamente continuas, pero serán nombradas <em>variables aleatorias continuas</em>. Para definirlas, es necesario previamente definir qué es una <em>densidad de probabilidad</em>.</p>
<p><strong>Densidad de probabilidad:</strong>
Una densidad de probabilidad es una función <span class="math inline">\(p: \mathbb{R} \rightarrow \mathbb{R}\)</span> integrable que cumple las siguientes dos condiciones:
1. Es positiva <span class="math inline">\(p(x) \geq 0\)</span> para todo <span class="math inline">\(x \in \mathbb{R}\)</span>.
2. <span class="math inline">\(\int_{-\infty}^{+\infty} p(x)dx = 1\)</span>.</p>
<p>Una variable aleatoria es absolutamente continua si existe una densidad de probabilidad <span class="math inline">\(p\)</span> tal que <span class="math inline">\(P(X\in I) = \int_{I} p(x) dx\)</span> para todo intervalo <span class="math inline">\(I\)</span> de <span class="math inline">\(\mathbb{R}\)</span>.</p>
<p>Un ejemplo conocido de variable aleatoria continua es la <em>campana de Gauss</em>, donde la probabilidad de que una variable aleatoria se encuentre entre dos puntos <span class="math inline">\([a,b]\)</span> está dada por la gráfica bajo la curva y se puede calcular usando la tabla de la distribución normal (desarollaremos más adelante).</p>
<embed src="figuras/Campana_Gauss.pdf" width="70%" style="display: block; margin: auto;" type="application/pdf" />
<div id="densidad-de-probabilidad-conjunta" class="section level4 unnumbered hasAnchor">
<h4>Densidad de probabilidad conjunta<a href="apéndice-d-probabilidad-y-estadística.html#densidad-de-probabilidad-conjunta" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Al igual que se definió a la distribución de probabilidad conjunta para las variables aleatorias discretas, se puede definir la densidad de probabilidad conjunta para variables continuas. La densidad de probabilidad en dos variables cumple que <span class="math inline">\(p(x,y) \geq 0\)</span> y <span class="math inline">\(\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}p(x,y)dxdy = 1\)</span>.</p>
</div>
</div>
<div id="variables-independientes" class="section level3 unnumbered hasAnchor">
<h3>Variables independientes<a href="apéndice-d-probabilidad-y-estadística.html#variables-independientes" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Para el caso de variables aleatorias discretas, se dice que son independientes si la distribución conjunta es igual al producto de las marginales: <span class="math inline">\(p(x,y) = p(x)p(y).\)</span></p>
<p>La definición de variable independiente en el caso continuo es análoga, pero para la densidad conjunta y densidades marginales.</p>
</div>
<div id="valor-esperado" class="section level3 unnumbered hasAnchor">
<h3>Valor esperado<a href="apéndice-d-probabilidad-y-estadística.html#valor-esperado" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Si repetimos un experimento la suficiente cantidad de veces, el valor que tomará la variable aleatoria es el <em>valor esperado</em>. A continuación se define para formalmente para variables aleatorias discretas y continuas.</p>
<p>El valor esperado de una variable aleatoria discreta <span class="math inline">\(X\)</span> con recorrido <span class="math inline">\(R_X\)</span> se define como <span class="math inline">\(E(X)=\sum_{x \in R_X} x \cdot P(X = x).\)</span></p>
<p>Para variables aleatorias continuas con densidad <span class="math inline">\(p(x)\)</span> se define como <span class="math inline">\(E(X) = \int_{-\infty}^{+\infty}xp(x) dx.\)</span></p>
<div id="propiedades-importantes" class="section level4 unnumbered hasAnchor">
<h4>Propiedades importantes:<a href="apéndice-d-probabilidad-y-estadística.html#propiedades-importantes" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Se definen a continuación las principales propiedades del valor esperado, que aplican tanto para variables aleatorias discretas como continuas.</p>
<p><strong>Propiedad 1:</strong>
Sea <span class="math inline">\(X\)</span> una variable aleatoria y <span class="math inline">\(a\)</span> una constante cualquiera. Entonces: <span class="math inline">\(E(aX) = aE(x).\)</span></p>
<p><strong>Propiedad 2:</strong>
Sean <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> dos variables aleatorias. Entonces: <span class="math inline">\(E(X + Y) = E(X) + E(Y).\)</span></p>
<p><strong>Propiedad 3:</strong>
Sean <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> dos variables aleatorias independientes, estas cumplen que <span class="math inline">\(E(XY) = E(X)E(Y).\)</span></p>
</div>
</div>
<div id="varianza-y-desviación-estándar" class="section level3 unnumbered hasAnchor">
<h3>Varianza y Desviación Estándar<a href="apéndice-d-probabilidad-y-estadística.html#varianza-y-desviación-estándar" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>La <em>varianza</em> es una medida de que tan dispersos estan los valores de <span class="math inline">\(X\)</span> respecto a su valor esperado. Para una variable aleatoria discreta <span class="math inline">\(X\)</span> con función de probabilidad puntual <span class="math inline">\(p(x)\)</span>, la varianza se define como <span class="math inline">\(Var(X) = \sum\limits_{x\in R_X}(x-E(X))^2p(x).\)</span></p>
<p>En el caso de una variable aleatoria continua <span class="math inline">\(X\)</span> con función de densidad <span class="math inline">\(p(x)\)</span>, la varianza se define como <span class="math inline">\(Var(X) = \int_{-\infty}^{+\infty} (x-E(X))^2p(x) dx.\)</span></p>
<p>Otra notación común de la varianza es <span class="math inline">\(\sigma^2\)</span>. La varianza tiene unidades de <span class="math inline">\(X^2\)</span> por lo que se defina otra medida de desviación con las mismas unidades de <span class="math inline">\(X\)</span> que resulta en un valor con mejor interpretabilidad. Se le llama <em>desviación estándar</em> y se define como <span class="math inline">\(\sigma = \sqrt{Var(X)}.\)</span></p>
<div id="propiedades-importantes-1" class="section level4 unnumbered hasAnchor">
<h4>Propiedades importantes:<a href="apéndice-d-probabilidad-y-estadística.html#propiedades-importantes-1" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Se desarrollan propiedades de la varianza, que aplican tanto para variables aleatorias continuas como discretas.</p>
<p><strong>Propiedad 1:</strong>
Sea <span class="math inline">\(X\)</span> una variable aleatoria y <span class="math inline">\(c\)</span> una constante cualquiera. Entonces: <span class="math inline">\(Var(X+c) = Var(X).\)</span></p>
<p><strong>Propiedad 2:</strong>
Sea <span class="math inline">\(X\)</span> una variable aleatoria y <span class="math inline">\(c\)</span> una constante cualquiera. Entonces: <span class="math inline">\(Var(cX) = c^2 Var(X).\)</span></p>
<p><strong>Propiedad 3:</strong>
La varianza de una variable aleatoria <span class="math inline">\(X\)</span> se puede calcular como: <span class="math inline">\(Var(X) = E(X^2) - E^2(X).\)</span></p>
<p><strong>Propiedad 4:</strong>
Sean <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> dos variables aleatorias independientes, la varianza de <span class="math inline">\(X+Y\)</span> queda definida por: <span class="math inline">\(Var(X+Y) = Var(X) + Var(Y).\)</span></p>
</div>
</div>
<div id="covarianza-y-coeficiente-de-correlación" class="section level3 unnumbered hasAnchor">
<h3>Covarianza y Coeficiente de Correlación<a href="apéndice-d-probabilidad-y-estadística.html#covarianza-y-coeficiente-de-correlación" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>La <em>covarianza</em> mide la variabilidad conjunta de <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span>. Mide que tan asociadas estan estas dos variables aleatorias y sus respectivas dispersiones. Está definida como <span class="math inline">\(Cov(X,Y) = E[(X-E(X))(Y-E(Y))]\)</span> que desarrollando queda $<span class="math inline">\(Cov(X,Y) = E[(X-E(X))(Y-E(Y))] = E(XY) - E(X)E(Y).\)</span></p>
<p>Si a la covarianza se la divide por el producto de las desviaciones estándar de <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> se obtiene el <em>coeficiente de correlacion</em>: <span class="math inline">\(\rho = \frac{Cov(X,Y)}{\sigma_X \sigma_Y}.\)</span></p>
<div id="propiedades-importantes-2" class="section level4 unnumbered hasAnchor">
<h4>Propiedades importantes:<a href="apéndice-d-probabilidad-y-estadística.html#propiedades-importantes-2" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p><strong>Propiedad 1: Desigualdad de Cauchy - Schwarz</strong>
Sean <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> dos variables aleatorias cualesquiera <span class="math inline">\(\Rightarrow |Cov(X,Y)| \leq \sqrt{Var(X)}\sqrt{Var(Y)} \leq 1.\)</span></p>
<p><strong>Propiedad 2:</strong>
Sean <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> dos variables aleatorias cualesquiera <span class="math inline">\(\Rightarrow Cov(X,Y) = Cov(Y,X).\)</span></p>
<p><strong>Propiedad 3:</strong>
Sea <span class="math inline">\(X\)</span> una variable aleatoria constante <span class="math inline">\(\Leftrightarrow Cov(X,X) = 0.\)</span></p>
<p><strong>Propiedad 4:</strong>
Sean <span class="math inline">\(X\)</span> e <span class="math inline">\(Y\)</span> dos variables aleatorias independientes <span class="math inline">\(\Rightarrow Cov(X,Y) = 0\)</span> dado que <span class="math inline">\(E(XY) = E(X)E(Y).\)</span></p>
<p><strong>Propiedad 5:</strong>
Sean <span class="math inline">\(X\)</span>, <span class="math inline">\(Y\)</span> y <span class="math inline">\(Z\)</span> tres variables aleatorias discretas y <span class="math inline">\(a\)</span> una constante <span class="math inline">\(\Rightarrow Cov(aX+Y, Z) = aCov(X,Z) + Cov(Y,Z).\)</span></p>
</div>
</div>
<div id="ley-de-los-grandes-números" class="section level3 unnumbered hasAnchor">
<h3>Ley de los grandes números<a href="apéndice-d-probabilidad-y-estadística.html#ley-de-los-grandes-números" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>La <em>Ley de los Grandes Números</em> establece que el promedio de muchas realizaciones independientes de un mismo experimento está, con alta probabilidad, cerca de la esperanza de la distribución subyacente. El enunciado dice que:
Sean <span class="math inline">\(X_1, X_2,...,X_n\)</span> variables aleatorias independientes e identicamente distribuidas (i.i.d), con esperanza <span class="math inline">\(\mu = E(X_i)\)</span> y varianza <span class="math inline">\(\sigma^2 = Var(X_i)\)</span>. Entonces, para todo <span class="math inline">\(\epsilon > 0 \Rightarrow P(|\overline{X}_n - \mu|< \epsilon) \rightarrow 1\)</span> cuando <span class="math inline">\(n\rightarrow \infty\)</span>.</p>
<p><span class="math inline">\(\overline{X}_n\)</span> es el promedio de las variables aleatorias i.i.d que tiene como esperanza <span class="math inline">\(E(\overline{X}_n) = \mu\)</span> y varianza <span class="math inline">\(Var(\overline{X}_n) = \frac{\sigma^2}{n}.\)</span></p>
</div>
<div id="distribuciones-conocidas" class="section level3 unnumbered hasAnchor">
<h3>Distribuciones conocidas<a href="apéndice-d-probabilidad-y-estadística.html#distribuciones-conocidas" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>A continuación se muestra una tabla donde se presentan algunas variables aleatorias típicamente utilizadas, qué experimentos modelan, su distribución, esperanza y varianza.</p>
<table>
<colgroup>
<col width="11%" />
<col width="20%" />
<col width="11%" />
<col width="32%" />
<col width="11%" />
<col width="11%" />
</colgroup>
<thead>
<tr class="header">
<th align="center">Variable</th>
<th align="center">Caso Prototipo</th>
<th align="center"><span class="math inline">\(p_X(x)\)</span></th>
<th align="center"><span class="math inline">\(F_X(x)\)</span></th>
<th align="center">Esperanza</th>
<th align="center">Varianza</th>
</tr>
</thead>
<tbody>
<tr class="odd">
<td align="center">Uniforme: <span class="math inline">\(X \sim U(n)\)</span></td>
<td align="center">Todos los resultados equiprobables</td>
<td align="center"><span class="math inline">\(\frac{1}{n}\)</span></td>
<td align="center">1</td>
<td align="center"><span class="math inline">\(\frac{n+1}{2}\)</span></td>
<td align="center"><span class="math inline">\(\frac{n^2-1}{12}\)</span></td>
</tr>
<tr class="even">
<td align="center">Bernoulli: <span class="math inline">\(X \sim Ber(p)\)</span></td>
<td align="center">Éxito o fracaso</td>
<td align="center"><span class="math inline">\((1-p)^{1-k}p^k\)</span></td>
<td align="center"><span class="math inline">\(\begin{cases} 1-p \textit{ si } k = 0 \\ 1 \textit{ si } k=1 \end{cases}\)</span></td>
<td align="center"><span class="math inline">\(p\)</span></td>
<td align="center"><span class="math inline">\(p(1-p)\)</span></td>
</tr>
<tr class="odd">
<td align="center">Geométrica: <span class="math inline">\(X \sim Geo(p)\)</span></td>
<td align="center">Repetir ensayos de Bernoulli hasta uno exitoso</td>
<td align="center"><span class="math inline">\((1-p)^{k-1}p\)</span></td>
<td align="center"><span class="math inline">\(\begin{cases} 1-(1-p)^{k+1} \textit{ si } k = 0 \\ 1 \textit{ si } k=1 \end{cases}\)</span></td>
<td align="center"><span class="math inline">\(\frac{1}{p}\)</span></td>
<td align="center"><span class="math inline">\(\frac{1-p}{p^2}\)</span></td>
</tr>
<tr class="even">
<td align="center">Binomial: <span class="math inline">\(X \sim Bin(n,p)\)</span></td>
<td align="center"><span class="math inline">\(k\)</span> ensayos de Bernoulli exitosos en <span class="math inline">\(n\)</span></td>
<td align="center"><span class="math inline">\(\begin{pmatrix}n \\ p \end{pmatrix} (1-p)^{n-k}p^k\)</span></td>
<td align="center">-</td>
<td align="center"><span class="math inline">\(np\)</span></td>
<td align="center"><span class="math inline">\(n(1-p)p\)</span></td>
</tr>
<tr class="odd">
<td align="center">Poisson: <span class="math inline">\(X \sim Pois(\mu)\)</span></td>
<td align="center"><span class="math inline">\(k\)</span> ocurrencias con probabilidad <span class="math inline">\(\mu\)</span> de un experimento en un periodo de tiempo <span class="math inline">\(t\)</span></td>
<td align="center"><span class="math inline">\(\frac{e^{-\mu}\mu^k}{k!}\)</span></td>
<td align="center">-</td>
<td align="center"><span class="math inline">\(\mu\)</span></td>
<td align="center"><span class="math inline">\(\mu\)</span></td>
</tr>
<tr class="even">
<td align="center">Hipergeométrica: <span class="math inline">\(X \sim H(N, q, n)\)</span></td>
<td align="center">Urna con <span class="math inline">\(N\)</span> bolillas, <span class="math inline">\(q\)</span> rojas. Probabilidad de sacar <span class="math inline">\(k\)</span> rojas en una muestra de <span class="math inline">\(n\)</span> sin reposición</td>
<td align="center"><span class="math inline">\(\frac{\begin{pmatrix} q \\ k \end{pmatrix}\begin{pmatrix} N-q\\ n-k \end{pmatrix}}{\begin{pmatrix} N \\ n \end{pmatrix}}\)</span></td>
<td align="center">-</td>
<td align="center"><span class="math inline">\(\frac{nq}{N}\)</span></td>
<td align="center"><span class="math inline">\(\frac{nq(N-q)}{N^2} (1-\frac{n-1}{N-1})\)</span></td>
</tr>
</tbody>
</table>
</div>
<div id="distribución-normal" class="section level3 unnumbered hasAnchor">
<h3>Distribución Normal<a href="apéndice-d-probabilidad-y-estadística.html#distribución-normal" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>La distribución normal es de las distribuciones más conocidas en probabilidad y estadística. Su función de densidad es la conocida como <em>Campana de Gauss</em> y está dada por la función <span class="math inline">\(\varphi = \frac{1}{\sqrt{2\pi}}e^{\frac{-x^2}{2}}\)</span> definida para todo <span class="math inline">\(x\in \mathbb{R}\)</span>. Esta distribución normal tiene esperanza <span class="math inline">\(0\)</span> y varianza <span class="math inline">\(1\)</span> por lo que la función de densidad es una campana de Gauss centrada en <span class="math inline">\(0\)</span>. Se representa por <span class="math inline">\(X \sim N(0,1)\)</span>.</p>
<embed src="figuras/Normal_con_media.pdf" width="80%" style="display: block; margin: auto;" type="application/pdf" />
<p>De la gráfica de la distribución normal se observa que es simétrica respecto a la media. Para hallar la función de distribución acumulada debe integrarse, pero <span class="math inline">\(\varphi\)</span> no tiene una primitiva elemental (no es expresable mediante funciones conocidas). Para calcular probabilidades usando esta distribución se utiliza la <em>Tabla de la distribución normal</em> que, para cada valor, indica el area bajo la curva que hay desde <span class="math inline">\(-\infty\)</span> hasta ese punto.</p>
<embed src="figuras/tabla_normal.pdf" width="100%" style="display: block; margin: auto;" type="application/pdf" />
<p>Se observa que no indica el valor de probabilidad para valores menores a 0. Sin embargo, dada la simetría mencionada previamente y que la probabilidad del complemento de un conjunto que tiene probabilidad <span class="math inline">\(p\)</span> es <span class="math inline">\(1-p\)</span>, se puede deducir que <span class="math inline">\(\phi(-x) = 1 - \phi(x)\)</span>.</p>
<p><em>Ejemplo:</em></p>
<p>Se quiere saber la probabilidad de que <span class="math inline">\(X < 2.38\)</span>. Para eso, en la tabla buscamos la fila correspondiente a <span class="math inline">\(2.3\)</span>, ya que las filas indican unidades y primer decimal. Posicionados en esa fila, buscamos la columna que corresponda a <span class="math inline">\(0.08\)</span>, dado que las columnas indican el segundo decimal. Se llega entonces a que <span class="math inline">\(P(X < 2.38) = \phi(2.38) = 0.9913\)</span>. Si se quisiera calcular la probabilidad de <span class="math inline">\(X > 2.38\)</span> basta con calcular la probabilidad del complemento, por lo que <span class="math inline">\(P(X > 2.38) = 1-\phi(2.38) = 0.0087\)</span>.</p>
<p>En el caso de querer calcular la probabilidad de que <span class="math inline">\(X < -2.38\)</span> se utiliza la propiedad de simetría. Se observa que la cola gaussiana a la izquierda de <span class="math inline">\(-2.38\)</span> es igual a la cola a la derecha de <span class="math inline">\(2.38\)</span> por lo que <span class="math inline">\(P(X < -2.38) = P(X >2.38) = 0.0087\)</span>.</p>
<div id="normal-de-media-mu-y-desviación-estándar-sigma" class="section level4 unnumbered hasAnchor">
<h4>Normal de media <span class="math inline">\(\mu\)</span> y desviación estándar <span class="math inline">\(\sigma\)</span><a href="apéndice-d-probabilidad-y-estadística.html#normal-de-media-mu-y-desviación-estándar-sigma" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>La distribución normal puede tener media <span class="math inline">\(\mu \neq 0\)</span> y desviación estándar <span class="math inline">\(\sigma \neq 1\)</span>. Que la media sea distinta de cero implica que la distribución tendrá su máximo en ese valor <span class="math inline">\(\mu\)</span>, lo que genera que esté centrada sobre otro valor del eje x. En el caso de la desviación estándar, cuánto mayor sea, más ancha queda la campana, ocurriendo lo contrario para valores más pequeños. Sin embargo, al ser una densidad de probabilidad debe siempre integrar uno, por lo que a mayor desviación estándar menor es el máximo de la campana. En este caso, la función de densidad está dada por <span class="math inline">\(\varphi = \frac{1}{\sigma\sqrt{2\pi}}e^{\frac{-(x-\mu)^2}{2\sigma^2}}\)</span>.</p>
<p>La desviación estándar indica que en el intervalo <span class="math inline">\([\mu-\sigma, \mu+\sigma]\)</span> se encuentra aproximadamente el 68% de los datos. A <span class="math inline">\(2\sigma\)</span> de distancia de <span class="math inline">\(\mu\)</span> se encuentra 94% de los datos, aproximadamente.</p>
<p><strong>Estandarización:</strong>
Si bien existen distribuciones normales <span class="math inline">\(N(\mu, \sigma^2)\)</span>, la tabla de distribución normal conocida con la que se trabaja es la de la normal <span class="math inline">\(N(0,1)\)</span>. Se buscará modelar la distribución que se tiene como una normal <span class="math inline">\(N(0,1)\)</span> mediante el proceso de estandarización.</p>
<p>Si se tiene una distribución normal de parámetros <span class="math inline">\(\mu\)</span> y <span class="math inline">\(\sigma\)</span> y además <span class="math inline">\(a < b\)</span>:
<span class="math display">\[P(a<X<b) = P \left(\frac{a-\mu}{\sigma} < \frac{X-\mu}{\sigma} < \frac{b-\mu}{\sigma} \right). \]</span></p>
<p>Se puede ver que <span class="math inline">\(\frac{X-\mu}{\sigma}\)</span> tiene distribución <span class="math inline">\(N(0,1)\)</span> por lo que
<span class="math display">\[P(a < X < b) = \phi\left( \frac{b-\mu}{\sigma}\right) - \phi\left( \frac{a-\mu}{\sigma} \right)\]</span>.</p>
<p><em>Ejemplo:</em>
Sea <span class="math inline">\(X\sim N(2,2)\)</span>, se quiere calcular la probabilidad de <span class="math inline">\(X\in[1.5, 3]\)</span>. Estandarizando, se obtiene que los valores a buscar en la tabla son:</p>
<p><span class="math display">\[\begin{cases} \frac{a-\mu}{\sigma} = \frac{1.5 - 2}{2} = -0.25 \\ \frac{b-\mu}{\sigma} = \frac{3 - 2}{2} = 0.5\end{cases}\]</span></p>
<p>Recordar que al tener un valor negativo, <span class="math inline">\(\phi(-x) = 1-\phi(x)\)</span> por lo que <span class="math inline">\(\phi(-0.25) = 1-\phi(0.25)\)</span>. Sustituyendo en <span class="math inline">\(\phi(0.5) - \phi(-0.25)\)</span>, se obtiene que <span class="math inline">\(P(1.5 < X < 3) = \phi(0.5) - 1 + \phi(0.25) = 0.6915 - 1 + 0.5987 \Rightarrow P(1.5 < X < 3) = 0.2902\)</span>.</p>
</div>
<div id="combinación-lineal-de-normales-independientes" class="section level4 unnumbered hasAnchor">
<h4>Combinación lineal de normales independientes<a href="apéndice-d-probabilidad-y-estadística.html#combinación-lineal-de-normales-independientes" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Combinaciones lineales de normales independientes generan distribuciones normales. En particular, es de interés mencionar qué pasa en el caso de la suma de normales.</p>
<p>Si <span class="math inline">\(X_1,...,X_n\)</span> son independientes con <span class="math inline">\(X_i\sim N(\mu_i, \sigma^2_i)\)</span> entonces
<span class="math display">\[X_1+...+X_n \sim N\left(\sum\limits_{i=1}^n \mu_i, \sum\limits_{i=1}^n \sigma^2_i \right)\]</span></p>
<p>Si además las normales son i.i.d., se puede saber la distribución del promedio:
Si <span class="math inline">\(X_1,...,X_n\)</span> son i.i.id con <span class="math inline">\(X_i\sim N(\mu, \sigma^2)\)</span> entonces
<span class="math display">\[\frac{X_1+...+X_n}{n} \sim N\left(\mu, \frac{\sigma^2_i}{n}\right)\]</span></p>
</div>
</div>
<div id="distribución-binomial" class="section level3 unnumbered hasAnchor">
<h3>Distribución Binomial<a href="apéndice-d-probabilidad-y-estadística.html#distribución-binomial" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Para definir la distribución Binomial previamente necesitamos definir un ensayo de Bernoulli. Los ensayos de Bernoulli miden la probabilidad de éxito (y por ende la de fracaso) de que ocurra un evento. Por ejemplo, tiramos una moneda y queremos medir la probabilidad de que salga <em>cara</em>. Llamaremos <em>p</em> a la probabilidad de éxito y <em>q</em> a la de no éxito, que por propiedades de probabilidad será <span class="math inline">\(q=1-p\)</span>.</p>
<p>La distribución binomial mide la probabilidad de obtener <span class="math inline">\(k\)</span> éxitos en <span class="math inline">\(n\)</span> ensayos Bernoulli independientes entre sí. A continuación se muestra un arbol de probabilidades para los primeros cuatro niveles, donde en cada nivel se muestra la probabilidad de que ocurra ese evento y se llega con probabilidad <span class="math inline">\(p\)</span> o <span class="math inline">\(q\)</span> si el evento es éxito o fracaso.</p>
<p><img src="figuras/Arbol_binomial.png" width="70%" style="display: block; margin: auto;" /></p>
<p>Si quiero la probabilidad de tener dos éxitos en cuatro eventos, se buscan en el árbol aquellos caminos que en todo el recorrido desde el primer evento hasta el último halla dos éxitos.</p>
<p>Extendiendo el árbol a <span class="math inline">\(n\)</span> pasos, si quiero <em>k</em> éxitos debo recorrer el camino donde tenga $k4 veces el evento exitoso y <span class="math inline">\(n-k\)</span> veces el evento fracaso. Cada uno de estos caminos tendrá probabilidad <span class="math inline">\(p^k\)</span> (correspondiente a los éxitos) multiplicado por <span class="math inline">\(q^{n-k}\)</span> (correspondiente a los fracasos), o lo que es lo mismo <span class="math inline">\((1-p)^{n-k}\)</span>. Extendiéndolo a la cantidad de caminos posibles, la probabilidad de tener <em>k</em> éxitos en <em>n</em> ensayos está dada por:</p>
<p><span class="math display">\[P(S_n = k) = ( \begin{cases} n \\ k \end{cases}) p^k (1-p)^{n-k}\]</span></p>
<p>Recordando que la esperanza de una Bernoulli de parámetro <em>p</em> es <em>p</em> y la varianza es <span class="math inline">\(p(1-p)\)</span>, se llega a que la esperanza y varianza de una Binomial <span class="math inline">\((S_n)\)</span> son:
<span class="math display">\[
\begin{cases}
E(S_n) = np \\
Var(S_n) = np(1-p)
\end{cases}
\]</span></p>
</div>
<div id="distribución-de-poisson" class="section level3 unnumbered hasAnchor">
<h3>Distribución de Poisson<a href="apéndice-d-probabilidad-y-estadística.html#distribución-de-poisson" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>La distribución de Poisson mide la cantidad de éxitos en un intervalo de tiempo <span class="math inline">\(t\)</span>. Se puede considerar como una extensión del proceso de Bernoulli pero que considera los éxitos en un intervalo contínuo en lugar de realizaciones discretas del experimento.</p>
<p>Para que se ajuste a un proceso de Possion de parámetro <span class="math inline">\(\mu > 0\)</span> se deben cumplir las siguientes tres condiciones:
- La cantidad de éxitos en subintervalos disjuntos deben ser independientes.
- La probabilidad de éxito de un intervalo de lo suficientemente chico de longitud <span class="math inline">\(h\)</span> es <span class="math inline">\(\mu h\)</span>.<br />
- La probabilidad de dos o más éxitos en un intervalo lo suficientemente chico es esencialmente cero.</p>
<p>Se considera un experimento que cumple las tres condiciones previas, para buscar la probabilidad <span class="math inline">\(P\)</span> que modele el experimento se considera un intervalo de longitud 1 que se divide en <span class="math inline">\(n\)</span> intervalos de igual longitud. Como se considera <span class="math inline">\(n\)</span> lo suficientemente grande, se sabe que en cada intervalo va a haber un éxito con probabilidad <span class="math inline">\(\frac{\mu}{n}\)</span>. El éxito o no en cada intervalo se modela como una Bernoulli, por lo que conseguir <span class="math inline">\(k\)</span> éxitos en los <span class="math inline">\(n\)</span> intervalos se puede modelar como una Binomial. Tomando la probabilidad de la Binomial y calculando su límite para <span class="math inline">\(n \rightarrow \infty\)</span> se obtiene que:</p>
<p>Una variable discreta <span class="math inline">\(S\)</span> tiene distribución de Poisson de parámetro <span class="math inline">\(\mu\)</span> si toma valores enteros mayores o iguales a cero con probabilidad <span class="math display">\[P(S = k) = \frac{\mu^k}{k!}e^{-\mu}\]</span> con <span class="math inline">\(k=0,1,2...\)</span>. Se escribe como <span class="math inline">\(S \sim Poiss(\mu)\)</span>.</p>
<p><em>Ejemplo:</em>{-}
Se tiene un rebaño de ovejas del que se sabe que en promedio <span class="math inline">\(\mu = 2\)</span> de ellas dan a luz por día. Se quiere calcular la probabilidad de que cinco vacas den a luz, por lo que sustituyendo <span class="math inline">\(k=5\)</span> y <span class="math inline">\(\mu = 2\)</span> en la función de la probabilidad de Poisson se obtiene la probabilidad deseada.</p>
</div>
</div>
<div id="estimadores" class="section level2 unnumbered hasAnchor">
<h2>ESTIMADORES<a href="apéndice-d-probabilidad-y-estadística.html#estimadores" class="anchor-section" aria-label="Anchor link to header"></a></h2>
<div id="estimadores-frecuentistas" class="section level3 unnumbered hasAnchor">
<h3>Estimadores frecuentistas<a href="apéndice-d-probabilidad-y-estadística.html#estimadores-frecuentistas" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Un modelo paramétrico consiste en suponer que se conoce la densidad de probabilidad salvo algunos parámetros. Por ejemplo, se supone que las muestras que se tienen de un experimento se ajustan a una distribución normal, pero no se conoce su media ni su varianza. Un parámetro se denota con la letra <span class="math inline">\(\theta\)</span> y la densidad correspondiente por <span class="math inline">\(p(x;\theta)\)</span>.</p>
<p>Un <em>estimador</em> es un estadístico que se cree tiene información suficiente sobre un parámetro <span class="math inline">\(\theta\)</span> de la distribución <span class="math inline">\(X\)</span>. ¿Cómo evaluar si un estimador es bueno? Se definiran dos propiedades con las que se pueden establecer dos criterios.</p>
<p><strong>Sesgo:</strong></p>
<p>Se define el sesgo de un estimador <span class="math inline">\(T\)</span> como la diferencia entre el parámetro <span class="math inline">\(\theta\)</span> y la esperanza del estimador: <span class="math inline">\(Sesgo(\theta) = E(T) - \theta\)</span>. Se dice que un estimador es insesgado si <span class="math inline">\(E(T) = \theta\)</span>.</p>
<p>Se dice que un estimador es <em>asintóticamente insesgado</em> si <span class="math inline">\(\lim\limits_{n\rightarrow +\infty} E(T) = \theta\)</span>, siendo <span class="math inline">\(n\)</span> el número de muestras de la distribución.</p>
<p><em>Ejemplo:</em>
Se quiere estimar el parámetro <span class="math inline">\(\mu\)</span> de una distribución. Se elige como estimador el promedio <span class="math inline">\(\overline{X}_n\)</span>. ¿Es este estimador insesgado?</p>
<p>Calculamos su esperanza:
<span class="math display">\[E(\overline{X}_n) = E(\frac{1}{n}\sum\limits_{n=1}^n X_i) = \frac{1}{n}\sum\limits_{n=1}^n E(X_i) = \frac{n\mu}{n} = \mu.\]</span></p>
<p>Por lo tanto, es un estimador insesgado.</p>
<p><strong>Error cuadrático medio:</strong></p>
<p>El error cuadrático medio de un estimador <span class="math inline">\(T\)</span> de un parámetro <span class="math inline">\(\theta\)</span> está definido como <span class="math inline">\(MSE(T) = E\left((T-\theta)^2\right)\)</span>. Se puede reescribir como <span class="math inline">\(MSE(T) = Var(T) + Sesgo(T)^2\)</span>.</p>
<p>En general, los estimadores que minimizan el MSE dependen del parámetro desconocido, dado que dependen del sesgo. Por lo tanto, suelen ser no realizables. Un estimador insesgado suele tener mayor varianza, resultando en lo que se conoce como <em>compromiso sesgo-varianza</em>. Se debe decidir si buscar minimizar el sesgo (que resulta en un estimador más exacto) o la varianza (que resulta en un estimador más preciso).</p>
</div>
<div id="otras-propiedades" class="section level3 unnumbered hasAnchor">
<h3>Otras propiedades:<a href="apéndice-d-probabilidad-y-estadística.html#otras-propiedades" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p><em>Consistencia:</em>
Se dice que un estimador es consistente si converge en probabilidad al valor del parámetro que está intentando estimar, conforme crece la muestra.</p>
<p><em>Invarianza:</em>
Un estimador se dice invariante si una función del estimador <span class="math inline">\(\hat{\theta}\)</span> es igual al estimador de la función del parámetro <span class="math inline">\(\theta\)</span>. O sea que: <span class="math inline">\(f(\hat{\theta}) = \hat{f(\theta)}\)</span>.</p>
<p><em>Suficiencia:</em>
Un estimador de <span class="math inline">\(\theta\)</span> se considera suficiente si utiliza toda la información contenida en la muestra aleatoria con respecto a <span class="math inline">\(\theta\)</span>.</p>
<p><em>Robustez:</em>
Un estimador robusto es aquel que sigue siendo efectivo incluso si las suposiciones iniciales del modelo estadístico no se cumplen completamente.</p>
<p><em>Asintóticamente normal:</em>
Un estimador se dice que es asintóticamente normal si, a medida que el tamaño de la muestra tiende a infinito, la distribución del estimador se aproxima a una distribución normal.</p>
</div>
<div id="métodos-de-estimación" class="section level3 unnumbered hasAnchor">
<h3>Métodos de estimación<a href="apéndice-d-probabilidad-y-estadística.html#métodos-de-estimación" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>A continuación, se presentan distintas técnicas de estimación. Puede convenir la utilización de unas u otras en función de qué se busca (estimadores insesgados o estimadores de varianza pequeña, por ejemplo).</p>
<div id="estimadores-insesgados-de-varianza-mínima-mvu" class="section level4 unnumbered hasAnchor">
<h4>Estimadores insesgados de varianza mínima (MVU)<a href="apéndice-d-probabilidad-y-estadística.html#estimadores-insesgados-de-varianza-mínima-mvu" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Dado que minimizar el MSE puede llevar a estimadores no realizables, una opción es elegir el estimador de menor varianza del conjunto de estimadores insesgados. No necesariamente va a ser el estimador que minimice el MSE, pero sí es el que tiene menor MSE dado que el sesgo es cero. También se le llama <em>estimador eficiente</em>.</p>
</div>
<div id="mejor-estimador-lineal-insesgado-blue" class="section level4 unnumbered hasAnchor">
<h4>Mejor estimador lineal insesgado (BLUE)<a href="apéndice-d-probabilidad-y-estadística.html#mejor-estimador-lineal-insesgado-blue" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Otra estrategia para elegir el mejor estimador dado el problema es restringir el estimador a ser lineal con los datos y buscar el estimador lineal insesgado con menor varianza. Un estimador es lineal con los datos si: <span class="math inline">\(\hat{\theta} = \sum\limits_{n=0}^{N-1}a_nx[n]\)</span>. Se deberá hallar los coeficientes <span class="math inline">\(a_n\)</span> para que el estimador sea insesgado y de mínima varianza.</p>
</div>
<div id="estimadores-de-máxima-verosimilitud-mle" class="section level4 unnumbered hasAnchor">
<h4>Estimadores de máxima verosimilitud (MLE)<a href="apéndice-d-probabilidad-y-estadística.html#estimadores-de-máxima-verosimilitud-mle" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>El estimador de máxima verosimilitud es una herramienta muy popular para obtener estimadores prácticos ya que tiene características asintóticas deseables: es asintóticamente eficiente y es consistente (con probabilidad alta se acerca al parámetro buscado dada una cantidad grande de muestras). Suelen utilizarse métodos numéricos para hallarlo.</p>
<p>Sea una muestra <span class="math inline">\(x_1,...,x_n\)</span> obtenida por un muestreo aleatorio <span class="math inline">\(X_1,...,X_n\)</span> de una variable <span class="math inline">\(X\)</span> con distribución <span class="math inline">\(p(x;\theta)\)</span> que depende de un parámetro <span class="math inline">\(\theta\)</span> a estimar. La probabilidad de observar la muestra que observamos es <span class="math inline">\(p(x_1;\theta)p(x_2;\theta)...p(x_n;\theta)\)</span>. El principio de <em>máxima verosimilitud</em> se basa en hallar un <span class="math inline">\(\hat{\theta}\)</span> estimador de <span class="math inline">\(\theta\)</span> que maximice este producto.</p>
<p>Definimos la <em>función de verosimilitud</em> como <span class="math inline">\(L_n(\theta) = \prod\limits_{i=1}^n p(X_i;\theta)\)</span> donde <span class="math inline">\(X_1,...,X_n\)</span> son muestras i.i.d con distrbución <span class="math inline">\(p(x;\theta)\)</span>. Es usual trabajar con el logaritmo ya que facilita las operaciones: <span class="math inline">\(l_n(\theta) = \sum\limits_{i=1}^n ln(p(X_i;\theta)).\)</span></p>
<p>Sea <span class="math inline">\(X_1,...,X_n\)</span> i.i.d <span class="math inline">\(\sim p(x;\theta)\)</span>. El estimador <span class="math inline">\(T_n\)</span> de <span class="math inline">\(\theta\)</span> es el valor que maximiza la función de verosimilitud (o de forma equivalente, su logaritmo): <span class="math inline">\(T_n = argmax_{\theta} L_n(\theta) = argmax_{\theta} l_n(\theta).\)</span></p>
</div>
</div>
<div id="estimadores-bayesianos" class="section level3 unnumbered hasAnchor">
<h3>Estimadores Bayesianos<a href="apéndice-d-probabilidad-y-estadística.html#estimadores-bayesianos" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>El enfoque Bayesiano toma al parámetro <span class="math inline">\(\theta\)</span> no como un valor desconocido (como es el caso del enfoque trabajado hasta el momento) sino que lo considera una variable aleatoria. Esta visión permite agregar información sobre <span class="math inline">\(\theta\)</span> como una distribución a priori <span class="math inline">\(p(\theta)\)</span>. Si la información brindada por la distribución a priori es razonable, puede llevar a estimaciones más precisas. Sin embargo, la elección de esta distribución deberá ser muy cautelosa ya que información errónea puede tener el efecto opuesto. Por lo tanto, si no se tiene ningún tipo de noción previa, conviene utilizar el enfoque clásico.</p>
<p>Un ejemplo de información a priori es que el parámetro <span class="math inline">\(\theta\)</span> no pueda ser negativo o que sea cercano a un cierto valor <span class="math inline">\(a\)</span> conocido.</p>
<div id="estimador-del-error-cuadrático-medio-mínimo-mmse" class="section level4 unnumbered hasAnchor">
<h4>Estimador del error cuadrático medio mínimo (MMSE)<a href="apéndice-d-probabilidad-y-estadística.html#estimador-del-error-cuadrático-medio-mínimo-mmse" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>El <em>error cuadrático medio bayesiano</em> se define como <span class="math inline">\(bmse(\hat{\theta}) = \mathbb{E}_{x,\theta} \left[ (\hat\theta - \theta)^2\right] = \int_{\theta} \int_{x} (\hat{\theta}(x) - \theta)^2p(x,\theta)dx d\theta\)</span>.
El estimador MMSE es el que minimiza el BMSE. Realizando las operaciones pertinentes, se llega a que <span class="math inline">\(\hat{\theta}_{MMSE} = \mathbb{E}[\theta|x]\)</span> que es la media de la distribución a posteriori <span class="math inline">\(p(\theta|x)\)</span>.</p>
<p>La distribución a posteriori es la distribución de <span class="math inline">\(\theta\)</span> una vez observados los datos. Este estimador depende de la prior de <span class="math inline">\(\theta\)</span> y de los datos. Si el conocimiento previo que se asume sobre <span class="math inline">\(\theta\)</span> es débil respecto a los datos, el estimador ignora el conocimiento a priori. Lo opuesto ocurre si el conocimiento previo es fuerte respecto a los datos.</p>
</div>
<div id="estimador-máximo-a-posteriori-map" class="section level4 unnumbered hasAnchor">
<h4>Estimador Máximo a Posteriori (MAP)<a href="apéndice-d-probabilidad-y-estadística.html#estimador-máximo-a-posteriori-map" class="anchor-section" aria-label="Anchor link to header"></a></h4>
<p>Es el análogo bayesiano al estimador del MLE. En este caso, en lugar de maximizar la verosimilitud se maximiza la distribución a posteriori. Entonces, el estimador queda definido por <span class="math inline">\(\hat{\theta}_{MAP} := argmax_{\theta}p( \theta|x) = argmax_{\theta}\{log(p(x|\theta)) + log(p\theta)\}\)</span> donde el primer término es la función de verosimilitud y el segundo la priori.</p>
</div>
</div>
<div id="ejemplo-conceptual-de-estimadores" class="section level3 unnumbered hasAnchor">
<h3>Ejemplo conceptual de estimadores:<a href="apéndice-d-probabilidad-y-estadística.html#ejemplo-conceptual-de-estimadores" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<p>Supongamos que un ganadero está interesado en estimar la cantidad promedio de leche producida por sus vacas en un determinado período de tiempo. Se presenta a continuación los dos posibles enfoques, el frecuentista y el Bayesiano:</p>
<p><em>Estimador Frecuentista:</em></p>
<p>El ganadero podría utilizar un enfoque frecuentista y estimar la cantidad promedio de leche producida por las vacas basándose únicamente en los datos observados de su muestra. Por ejemplo, podría calcular la media muestral de la cantidad de leche producida por cada vaca en un período de tiempo específico y utilizar esta media como estimación del verdadero valor promedio de leche producida por todas las vacas en la población.</p>
<p><em>Estimador Bayesiano:</em></p>
<p>Por otro lado, el ganadero también podría adoptar un enfoque bayesiano. En este caso, el ganadero podría tener información previa sobre la producción de leche de las vacas en temporadas anteriores. Esta información previa se utilizaría para establecer una distribución de probabilidad inicial (prior) sobre la cantidad promedio de leche producida por las vacas.</p>
</div>
</div>
</div>
<h3> Bibliografía<a href="bibliografia.html#bibliografia" class="anchor-section" aria-label="Anchor link to header"></a></h3>
<div id="refs" class="references csl-bib-body hanging-indent" entry-spacing="0">
<div id="ref-apendice04pye" class="csl-entry">
———. n.d.d. <span>“Notas Del Curso de Probabilidad y Estadìstica.”</span> <a href="https://eva.fing.edu.uy/mod/folder/view.php?id=116419" class="uri">https://eva.fing.edu.uy/mod/folder/view.php?id=116419</a>.
</div>
</div>
</section>
</div>
</div>
</div>
<a href="apéndice-c-álgebra-lineal-y-geometría-analítica.html" class="navigation navigation-prev " aria-label="Previous page"><i class="fa fa-angle-left"></i></a>
<a href="bibliografia.html" class="navigation navigation-next " aria-label="Next page"><i class="fa fa-angle-right"></i></a>
</div>
</div>
<script src="libs/gitbook-2.6.7/js/app.min.js"></script>
<script src="libs/gitbook-2.6.7/js/clipboard.min.js"></script>
<script src="libs/gitbook-2.6.7/js/plugin-search.js"></script>
<script src="libs/gitbook-2.6.7/js/plugin-sharing.js"></script>
<script src="libs/gitbook-2.6.7/js/plugin-fontsettings.js"></script>
<script src="libs/gitbook-2.6.7/js/plugin-bookdown.js"></script>
<script src="libs/gitbook-2.6.7/js/jquery.highlight.js"></script>
<script src="libs/gitbook-2.6.7/js/plugin-clipboard.js"></script>
<script>
gitbook.require(["gitbook"], function(gitbook) {
gitbook.start({
"sharing": {
"github": false,
"facebook": true,
"twitter": true,
"linkedin": false,
"weibo": false,
"instapaper": false,
"vk": false,
"whatsapp": false,
"all": ["facebook", "twitter", "linkedin", "weibo", "instapaper"]
},
"fontsettings": {
"theme": "white",
"family": "sans",
"size": 2
},
"edit": {
"link": "https://github.com/rstudio/bookdown-demo/edit/master/19-apendice04.rmd",
"text": "Edit"
},
"history": {
"link": null,
"text": null
},
"view": {
"link": null,
"text": null
},
"download": ["ApuntesGeneticaII.pdf", "ApuntesGeneticaII.epub"],
"search": {
"engine": "fuse",
"options": null
},
"toc": {
"collapse": "subsection"
}
});
});
</script>
<!-- dynamically load mathjax for compatibility with self-contained -->
<script>
(function () {
var script = document.createElement("script");
script.type = "text/javascript";
var src = "true";
if (src === "" || src === "true") src = "https://cdnjs.cloudflare.com/ajax/libs/mathjax/2.7.9/latest.js?config=TeX-MML-AM_CHTML";
if (location.protocol !== "file:")
if (/^https?:/.test(src))
src = src.replace(/^https?:/, '');
script.src = src;
document.getElementsByTagName("head")[0].appendChild(script);
})();
</script>
</body>
</html>