HISTORIA DE LA ESTADÍSTICA Y LA PROBABILIDAD
La
presencia del hueso astrágalo de oveja o ciervo en las excavaciones
arqueológicas más antiguas, parece confirmar que los juegos de azar tienen una
antigüedad de más de 40.000 años, y la utilización del astrágalo en culturas
más recientes, ha sido ampliamente documentada. Existen en las pirámides de
Egipto pinturas que muestran juegos de azar que datan del año 3.500 a . C. y Herodoto se
refiere a la popularidad y difusión en su época de los juegos de azar, especialmente
la tirada de astrágalos y dados. Los dados más antiguos se remontan a unos 3000
años antes de Cristo y se utilizaron en el juego como en ceremonias religiosas.
Las
civilizaciones antiguas, explicaban el azar mediante la voluntad divina. En
Grecia y Roma, utilizaban la configuración resultante de tirar cuatro dados
para predecir el futuro y revelar la voluntad favorable o desfavorable de los
dioses. Prácticas similares se han encontrado en culturas tan distintas como la
tibetana, la india o la judía. Piaget ha hecho notar que esta actitud mágica
ante el azar se manifiesta igualmente en los niños.
En
el Renacimiento aparece un nuevo enfoque global de considerar al mundo,
induciendo una observación cualitativamente distinta de muchos fenómenos naturales.
El abandono progresivo de explicaciones teológicas conduce a una
reconsideración de los experimentos aleatorios; y los matemáticos italianos del
siglo XVI, comienzan a interpretar los resultados de experimentos aleatorios
simples. Cardano, establece la equiprobabilidad de aparición de las caras de un
dado a largo plazo. A finales del siglo XVI, existía un intuitivo pero preciso
análisis empírico de los resultados aleatorios.
El
desarrollo del análisis matemático de los juegos de zar se produce lentamente
durante los siglos XVI y XVII, y algunos autores consideran como origen del
cálculo de probabilidades la resolución del problema de los puntos en la
correspondencia entre Pascal y Fermat en 1654. El cálculo de probabilidades se
consolida como disciplina independiente en el período que transcurre desde la
segunda mitad del siglo XVII hasta comienzos del siglo XVIII.
La
teoría de la probabilidad fue aplicada con buenos resultados a las mesas de
juego y con el tiempo a otros problemas socioeconómicos.
Durante
el siglo XVIII el cálculo de probabilidades se extiende a problemas físicos y
actuariales (seguros marítimos). El factor principal impulsor es el conjunto de
problemas de astronomía y física que surgen ligados a la contrastación empírica
de la teoría de Newton. Estas investigaciones van a ser de importancia
fundamental en el desarrollo de la Estadística.
La
industria de los seguros, que nació en el siglo XIX, requería un conocimiento
exacto del riesgo de perder pues de lo contrario no se podían calcular las
pólizas. Al cabo de cincuenta años, muchos centros de enseñanza, estaban
estudiando la probabilidad como un instrumento que les permitiría entender los
fenómenos sociales.
La
necesidad de comparar con exactitud los datos observados con la teoría requería
un tratamiento riguroso del mismo, que va a dar lugar a la teoría de errores.
D.
Bernoulli proporciona la primera solución al problema de estimar una cantidad
desconocida a partir de un conjunto de mediciones de su valor que, por el error
experimental, presentan variabilidad. Fue pionero en la aplicación del cálculo
infinitesimal al cálculo de probabilidades.
También
Abraham de Moivre, el reverendo Thomas Bayes y Joseph Lagrange inventaron
fórmulas y técnicas de probabilidad.
El
impulso fundamental proviene de la obra de Pierre Simon, Marqués de Laplace,
quien indujo la primera definición explícita de probabilidad y desarrolló la
ley normal como modelo para describir la variabilidad de los errores de medida;
también formuló y estimó el primer modelo explicativo estadístico. Por su
parte, Gauss hizo su aportación en la estimación de modelos estadísticos.
Bravais,
geólogo y astrónomo, es el primero en considerar la relación entre errores de
medida dependientes entre sí; Benjamín Pierce propone el primer criterio para
rechazar observaciones heterogéneas con el resto y S. Newcomb, el más famoso
astrónomo americano del siglo XIX, introduce los primeros métodos de estimación
cuando hay errores fuertes en algunos datos (Estimación Robusta).
TOMA DE DECISIONES
En
la actualidad la teoría matemática de la probabilidad constituye el fundamento
de las aplicaciones estadísticas tanto en la investigación científica,
económica, social, ingenieril como aspecto fundamental de la toma de
decisiones.
Vivimos
en un mundo donde somos incapaces de pronosticar el futuro con absoluta
certeza. La necesidad de sortear la incertidumbre nos lleva a estudiar y
aplicar la teoría de la probabilidad. En muchos casos nosotros, como ciudadanos
honestos, tendremos algún conocimiento sobre los posibles resultados de una
decisión. Si organizamos esta información y la analizamos sistemáticamente,
podremos reconocer nuestras suposiciones, comunicar a otros nuestro
razonamiento y tomar una decisión más inteligente de la que lograríamos
recurriendo a un método que no sea científico.
El
hombre de negocios, así como el jugador de póquer o el estratega militar, debe
también tomar decisiones en condiciones de incertidumbre con respecto al
futuro. Su apreciación del futuro se manifiesta al relacionar una probabilidad
numérica con cada evento posible que pueda influir en el resultado de sus
decisiones, y si utiliza estas probabilidades, junto con información de índole
económica, mejora el proceso de toma de decisiones.
Para
tener éxito en la toma de decisiones, se necesita la capacidad de tratar
sistemáticamente con la incertidumbre misma mediante cuidadosas evaluaciones y
aplicaciones de métodos estadísticos concernientes a las actividades de los
negocios.
La
probabilidad relacionada con un evento es un número comprendido entre 0 y 1, y
representa el riesgo o la posibilidad de que ocurra ese evento. Una
probabilidad de (P = 0) significa que el evento es imposible; si P = 0.50, es
tan probable que el evento ocurra como que no ocurra; si P = 1, es seguro que
suceda. El valor de P no puede ser negativo ni mayor que uno.
Se
puede considerar que la probabilidad es la frecuencia relativa de
"éxitos" o aciertos (es decir, la ocurrencia de un evento
determinado) en un proceso aleatorio en que se ha repetido un gran número de
pruebas o ensayos. La frecuencia relativa es el número de "éxitos"
dividido entre el número de pruebas efectuadas.
Fuentes
de Probabilidades
Es
posible estimar probabilidades mediante cualquiera de las tres siguientes
maneras alternativas:
1. Frecuencia relativa
de eventos pasados. Las probabilidades pueden estimarse a partir de las
frecuencias relativas que se observen en un experimento controlado, o mediante
muestreo de un universo grande y finito. La probabilidad a priori (previa) se
deduce de la experiencia obtenida de la observación prolongada.
Las probabilidades de eventos
complicados pueden determinarse a partir de las probabilidades de eventos más
sencillos, por medio de un método de simulación, utilizando un modelo
experimental diseñado para representar las condiciones reales del mismo.
2. Distribuciones
teóricas. Las probabilidades pueden determinarse sin recurrir a las frecuencias
relativas. Estas probabilidades pueden determinarse a partir de la distribución
binomial, sin recurrir a experimentos o muestras basadas en la experiencia
pasada. La validez de dichas distribuciones teóricas depende de cuán fielmente
las hipótesis representen la realidad.
3. Apreciación
subjetiva. Si ninguno de los métodos anteriormente mencionados pueden
utilizarse, el responsable de la toma de decisiones debe estimar las
probabilidades en base a su juicio o criterio y experiencia. Una probabilidad
subjetiva es una evaluación que una persona que toma decisiones hace acerca de
la vero – similitud relativa de que ocurra un evento incierto, o sea,
representa las "apuestas" que se hacen sobre la concurrencia de ese
evento. Tales apreciaciones son sumamente personales y, por lo tanto, dos
individuos pueden asignar diferentes probabilidades subjetivas al mismo evento.
TIPOS
DE PROBABILIDADES
1. Probabilidad
simple. Probabilidad de que el dato escogido tenga una característica.
2. Probabilidad
conjunta. Probabilidad de escoger un dato con dos (o más) características
específicas.
3. Probabilidad marginal
(al margen de la tabla). No es más que la probabilidad simple, vista con otro
enfoque; o sea, mientras que la probabilidad simple es un concepto singular, la
probabilidad marginal es esencialmente una suma de probabilidades conjuntas.
4. Probabilidad condicional.
La característica específica del dato es la condición (condiciona la
probabilidad).
APLICACIONES
La complejidad de los negocios en los
últimos años, ha incrementado el uso de la estadística para tomar decisiones en
cualquier nivel de la administración.
Las aplicaciones de métodos
estadísticos en las diferentes áreas son numerosas; por ejemplo: gráficas y
tablas estadísticas son usadas frecuentemente por gerentes de ventas para
representar hechos numéricos de ventas; métodos de muestreo son empleados por
investigadores de mercado, al hacer encuestas sobre las preferencias del
consumidor sobre ciertas marcas de artículos competitivos; métodos de control
de calidad, aplicados en producción, etc.
No hay comentarios:
Publicar un comentario