Sistemas Expertos Basados en Probabilidad FINAL

UNIVERSIDAD AUTONOMA DEL ESTADO DE MÉXICO MATERIA: SIMULACION DE SISTEMAS EXPERTOS NOMBRE: DANIELA AGUIRRE SALGADO EMI

Views 129 Downloads 0 File size 803KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

UNIVERSIDAD AUTONOMA DEL ESTADO DE MÉXICO

MATERIA: SIMULACION DE SISTEMAS EXPERTOS

NOMBRE: DANIELA AGUIRRE SALGADO EMILIO IAN CAMACHO MEJIA

TEMA: SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD

PROFESOR: FAUSTO CASAS ANAYA

CICLO ESCOLAR 2018-2019

CAPÍTULO 3: Sistemas Expertos Basados en Probabilidad 3.1 INTRODUCCIÓN Los sistemas expertos basados en reglas no tienen en cuenta ningún tipo de incertidumbre, aunque en la mayor parte de las aplicaciones la incertidumbre es lo común y no la excepción. El conocimiento no es determinista, esto es que el conocimiento no contempla la existencia de azar, o incertidumbre en el proceso de dicho modelo,un claro ejemplo es el porque las relaciones entre las enfermedades y los síntomas en un caso clínico no son determinísticas, puesto que un mismo conjunto de síntomas puede estar asociado a diferentes enfermedades, por ello no es extraño encontrar dos paciente con los mismos síntomas pero diferentes enfermedades. En los primeros sistemas expertos, se eligió la probabilidad como medida para tratar la incertidumbre, pero poco se encontraron algunos problemas por lo que fué considerada como una medida de incertidumbre poco práctica, poco después surgieron medidas alternativas a la probabilidad, como los factores de certeza, las credibilidades, las plausibilidades, las necesidades o las posibilidades, para tratar la incertidumbre. 3.2 ALGUNOS CONCEPTOS BÁSICOS DE LA TEORÍA DE LA PROBABILIDAD -MEDIDA DE PROBABILIDAD Dado “S” en el que se incluyen todos los posibles resultados de un cierto experimento, al que se le da el nombre de espacio muestral. Una vez definido esto, se asigna a todo subconjunto de S un número real que mida el grado de incertidumbre sobre su realización, también se imponen ciertas condiciones o propiedades intuitivas que definen una clase de medidas que se conocen como medidas de probabilidad. DEFINICIÓN Una función p que proyecta los subconjuntos A ⊆ S en el intervalo [0,1] se llama medida de probabilidad si satisface lo siguiente: ● ●

Axioma 1 (Normalización): p(S) = 1 Axioma 2 (Aditividad) : Para cualquier sucesión infinita, A 1, A2, de subconjuntos disjuntos de S, se cumple la igualdad

El Axioma 1 establece que, independientemente de nuestro grado de certeza, ocurrirá un elemento del conjunto universal S. En el Axioma 2 se presenta una fórmula de agregación que se usa para calcular la probabilidad de la unión de subconjuntos disjuntos, nos dice que la incertidumbre de un cierto subconjunto es la suma de las incertidumbres de sus partes. De lo anterior se pueden deducir algunas propiedades, por ejemplo: ●

Propiedad 1 (Normalización): p(∮) = 0



Propiedad 2 (Monotonicidad): Si A ⊆ B ⊆ S, entonces p(A) ≤ p(B) .



Propiedad 3 (Continuidad-Consistencia): Para toda sucesión creciente A 1 ⊆ A2 ⊆ o decreciente A1 ⊇ A2 ⊇ de subconjuntos de S se tiene:



Propiedad 4 (Inclusión-Exclusión): Dado cualquier par de subconjuntos A y B de S, se cumple siempre la siguiente igualdad:

La propiedad 1 establece que la evidencia asociada a una ausencia completa de información es 0, la propiedad 2 muestra la evidencia de que un elemento pertenezca a un conjunto dado A no debe decrecer con la adición de elementos a A, la propiedad 3 nos dice que si se eligen dos sucesiones de conjuntos que convergen al mismo subconjunto de S, se debe obtener la misma evidencia o incertidumbre, y finalmente la propiedad 4 establece que las probabilidades de los conjuntos A,B, A ⋂ B, y A ⋃ B no son independientes, sino que están relacionadas. DISTRIBUCIONES DE PROBABILIDAD Sea X1,..........,Xn un conjunto de variables aleatorias discretas y x 1,......xn el conjunto de sus posibles realizaciones Variables Aleatorias: se denotan en mayúsculas Realizaciones: se denotan con minúsculas. Por ejemplo si Xi es una variable binaria, entonces xi puede ser 1 ó 0. PROBABILIDAD CONDICIONAL Sean X e Y dos conjuntos disjuntos de variables tales que p(y) > 0. Entonces, la probabilidad condicional de X dado Y = y viene dada por p(x,y) = p(y)p(x|y). Sean A y B dos sucesos de un mismo espacio muestral E. Se llama probabilidad del suceso B condicionado a A y se representa por P(B/A) a la probabilidad del suceso B una vez ha ocurrido el A.

DEPENDENCIA E INDEPENDENCIA Independencia de dos variables Sean X e Y dos subconjuntos disjuntos del conjunto de variables aleatorias X 1,........Xn Entonces se dice que X es independiente de Y si y solamente si p(x|y) = p(x) Para todos los valores posibles x e y de X e Y; en otro caso, X se dice dependiente de Y . La ecuación anterior significa que si X es independiente de Y, entonces nuestro conocimiento de Y no afecta nuestro conocimiento sobre X, es decir, Y no tiene información sobre X. También, si X es independiente de Y, pueden combinarse (3.6) y (3.8) para obtener p(x, y)/p(y) = p(x), que implica p(x,y)=p(x)p(y)

Independencia de un conjunto de variables X1,........Xm se dicen independientes si y sólo si su función de probabilidad conjunta es igual al producto de sus funciones de probabilidad marginal

Dependencia e independencia condicional Sean X, Y y Z tres conjuntos disjuntos de variables, entonces X se dice condicional independiente de Y dado Z si y sólo si p(x\z,y)=p(x\z), para todos los valores posibles de x, y y z de X, Y y Z; En otro caso X e Y se dicen condicionalmente dependientes dado Z. Cuando X e Y son condicionalmente independientes dado Z, se escribe I(X,Y\Z). La relación I(X,Y | Z) Se denomina relación de independencia condicional I(X,Y |Z)p o D(X,Y|Z)p para indicar que la relación se deriva, o es implicada. Si Z ya es conocida, el conocimiento de Y no añade información alguna sobre X. I(X,Y | ∅

) para indicar que X e Y son incondicionalmente independientes, donde ∅

es el

conjunto vacío. TEOREMA DE BAYES El teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Fórmula:

Ejemplo: El parte meteorológico ha anunciado tres posibilidades para el fin de semana: a) Que llueva: probabilidad del 50%. b) Que nieve: probabilidad del 30% c) Que haya niebla: probabilidad del 20%. Según estos posibles estados meteorológicos, la posibilidad de que ocurra un accidente es la siguiente: a) Si llueve: probabilidad de accidente del 20%. b) Si nieva: probabilidad de accidente del 10% c) Si hay niebla: probabilidad de accidente del 5%. Resulta que efectivamente ocurre un accidente y como no estábamos en la ciudad no sabemos qué tiempo hizo (llovió, nevó o hubo niebla). El teorema de Bayes nos permite calcular estas probabilidades:

Las probabilidades que manejamos antes de conocer qué ha ocurrido un accidente se denominan "probabilidades a priori" (lluvia con el 50%, nieve con el 30% y niebla con el 20%). Una vez que incorporamos la información de que ha ocurrido un accidente, las probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan "probabilidades a posteriori". a) Probabilidad de que estuviera lloviendo:

La probabilidad de que efectivamente estuviera lloviendo el día del accidente (probabilidad a posteriori) es del 71,4%. b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%. c) Probabilidad de que hubiera niebla:

La probabilidad de que hubiera niebla es del 7,1% TIPOS DE ERRORES En situaciones de incertidumbre pueden cometerse dos tipos de errores: ● Una decisión positiva falsa, también conocida como error de tipo I y ● Una decisión negativa falsa, también conocida como error de tipo II En un caso de diagnóstico médico, los posibles errores son: ● Error de Tipo I: Un paciente no tiene la enfermedad pero el doctor concluye que la tiene ● Error de tipo II: Un paciente tiene la enfermedad pero el doctor concluye que no la tiene. 3.3 REGLAS GENERALIZADAS Una forma de introducir la incertidumbre en los sistemas basados en reglas consiste en utilizar reglas generalizadas. ●

Regla 1: Si A es cierta, entonces B es cierta, se puede introducir incertidumbre asociando una probabilidad a esta afirmación.

Commented [1]: http://nutriserver.com/Cursos/Bioesta distica/Teorema_Bayes.html



Regla 2: Si A es cierta, entonces la probabilidad de que B sea cierta es p(b) = θ, donde 0 ≤ θ ≤ 1 es una medida de la incertidumbre de B.

El valor de θ determina el nivel de implicación: ●

Implicación fuerte (θ = 1): En la lógica clásica, la que se ha utilizado hasta aquí en los sistemas expertos basados en reglas (Modus Ponens y Modus Tollens), si la premisa de una regla es cierta, su conclusión debe ser también cierta. Por ello, dada la regla: Si A es cierta, entonces B es cierta. Figura(a)



Implicación débil (0