La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Fundamentos de IA 5. Inferencia e Incertidumbre Jorge Cabrera Gámez Departamento de Informática y Sistemas Universidad de Las Palmas de Gran Canaria ©

Presentaciones similares


Presentación del tema: "Fundamentos de IA 5. Inferencia e Incertidumbre Jorge Cabrera Gámez Departamento de Informática y Sistemas Universidad de Las Palmas de Gran Canaria ©"— Transcripción de la presentación:

1 Fundamentos de IA 5. Inferencia e Incertidumbre Jorge Cabrera Gámez Departamento de Informática y Sistemas Universidad de Las Palmas de Gran Canaria © Todos los derechos reservados

2 2 Contenidos 5.Inferencia e Incertidumbre. (10 horas) 5.1Modelo Bayesiano 5.2Factores de certeza en sistemas basados en reglas. 5.3Inferencia en redes probabilísticas. 5.4Introducción a la Lógica Borrosa. 5.5Bibliografía básica: [Rich-91], [Gonz-93].

3 3 Objetivos: Evidenciar la necesidad de obtener métodos de tratamiento de la incertidumbre. Conocer algunas de las soluciones clásicas al problema de la incertidumbre.

4 4 Incertidumbre debida al azar: El mundo no siempre es predecible Incertidumbre debida a desconocimiento: El modelo no describe perfectamente el mundo Incertidumbre

5 5 Toda medida de probabilidad sobre un evento x i debe cumplir: 1. La probabilidad de cualquier evento x i 0, 1 2. La probabilidad total sobre todo el conjunto de eventos posibles es 1 3. Si los eventos x 1,x 2,..., x k son mutuamente exclusivos, entonces la probabilidad de que al menos uno de estos eventos se verifique es igual a la suma de las probabilidades individuales. El enfoque Bayesiano

6 6 Dados dos eventos x e y, nos preguntamos por la probabilidad con la que ambos eventos pueden verificarse simultáneamente (Probabilidad condicionada p(y|x)). Por definición: siempre que p(x) no sea cero. De manera similar, pero como p(x y) = p(y x), despejando de la expresión anterior, y sustituyendo más arriba tenemos, que es el teorema de Bayes

7 7 Si conocemos las probabilidades condicionadas de un evento dado cualquier otro evento, es intuitivo que la probabilidad del primer evento independientemente de lo que ocurra con el segundo es: Como sabemos que, es posible obtener la expresión, y sustituyendo más arriba tenemos, Si sustituimos en la expresión anterior del teorema de Bayes tenemos:

8 8 Probabilidad y el Teorema de Bayes Estadística Bayesiana Noción fundamental: Probabilidad condicionada p(h i |e): Probabilidad de la hipótesis h i si se presenta la evidencia e. Para calcular esta probabilidad necesitamos conocer: La probabilidad a priori de h i, p(h i ): la probabilidad que se asignaría a h i si no se tiene ninguna otra evidencia. La probabilidad p(e|h i ): con que se verifica la evidencia e cuando se verifica la hipótesis h i Teorema de Bayes: donde k es el número de posibles hipótesis.

9 9 Ejemplo: IF X s cierto THENse concluye Y con probabilidad P IF el paciente tiene gripe THENal paciente le gotea la nariz con probabilidad 0.75 Supongamos que observamos que al paciente le gotea la nariz, ¿cuál es la probabilidad de que tenga gripe? p(h) = p(tener gripe) = 0.2 p(e|h) = p(goteo nasal | tener gripe) = 0.75 p(e|¬h) = p(goteo nasal | no tener gripe) = 0.2 p(e) = p(goteo nasal) = p(e|h)*p(h) + p(e|¬h)*p(¬h) = = 0.75* *0.8 = 0.31

10 10 p(h) = p(tener gripe) = 0.2 p(e|h) = p(goteo nasal | tener gripe) = 0.75 p(e|¬h) = p(goteo nasal | no tener gripe) = 0.2 p(e) = p(goteo nasal) = p(e|h)*p(h) + p(e|¬h)*p(¬h) = = 0.75* *0.8 = 0.31 Ejemplo: Podríamos incluso calcular la probabilidad con la que se puede tener gripe sin que gotee la nariz. p(h|¬e) = p(tener gripe| no goteo nasal)

11 11 Propagación de la Incertidumbre en un esquema Bayesiano El esquema presentado hasta ahora es muy limitado, pues se restringe a una única evidencia que afecta a una única hipótesis. Este esquema puede extenderse para considerar m hipótesis y n evidencias. Debe notarse que esta expresión es válida sólo si las evidencias E i pueden considerarse independientes.

12 12 Ejemplo: Probabilidades a priori y condicionadas gripealergiafotosensibilidad (i=1) (i=2) (i=3) p(H i ) p(E 1 |H i ) p(E 2 |H i ) Hipótesis Evidencias E 1 : al paciente le gotea la nariz E 2 : el paciente tose destilación tos

13 13 Factores de certeza en reglas El conocimiento en SBRs que emplean factores de certeza se expresa de acuerdo con el siguiente formato: SI Evidencia ENTONCESHipótesis (CF) donde Evidencia es uno o más hechos que soportan la conclusión representada por Hipótesis. El factor de certeza o CF representa numéricamente la medida en que la Hipótesis se puede concluir de la Evidencia. Normalmente CF [-1, 1]

14 14 Factores de certeza en reglas La inferencia mediante Factores de Certeza (CF) hace uso de tres medidas diferentes: 1. La medida de Credibilidad, MB(h,e), que es un valor entre 0 y 1 que representa el grado con que la observación de la evidencia e soporta la credibilidad de la hipótesis h. Puede definirse ad hoc o emplear la siguiente definición: 2. La medida de incredulidad, MD(h,e), que es un valor entre 0 y 1 que representa el grado con que la observación de la evidencia e soporta la incredulidad en la hipótesis h. Puede definirse ad hoc o emplear la siguiente definición:

15 15 Factores de certeza en reglas 3. El factor de certeza, CF, que es un valor entre -1 (negación de la hipótesis h) y 1 (confirmación de la hipótesis). Este valor se obtiene como: Una evidencia sólo puede confirmar o negar una hipótesis. Por ello es suficiente un único número para definir tanto MB como MD y, por tanto, CF.

16 16 Propagación de los factores de certeza Durante la ejecución, múltiples reglas podrá activarse que concluyan en la misma hipótesis o conclusión y será necesario actualizar el factor de certeza asociado.

17 17 Incertidumbre en las evidencias La expresión anterior para la propagación de la incertidumbre asume que se tiene una absoluta confianza en la validez de las premisas o evidencias empleadas para obtener estos valores. REGLA 1 SIA ENTONCESQ (CF=0.75) REGLA 2 SIB AND C AND D ENTONCESQ (CF=0.7) REGLA 3 SIE OR F OR G ENTONCESQ (CF=0.7) CF(A)*CF Min(CF(A),CF(B),CF(C))*CF Max(CF(E),CF(F),CF(G))*CF

18 18 REGLA 1: Si las huellas del inculpado están en el arma del crimen Entonces el inculpado es culpable (Cf con1 =0.75) La seguridad de que las huellas pertenecen al inculpado es muy grande, Así CF evid1 = 0.9. La certeza asociada a la conclusión de la regla es entonces: CF comb1 = CF con1 * CF evid1 = 0.75 * 0.90 = La siguiente evidencia la aporta un testigo (la suegra del inculpado) que asegura que éste tenía un motivo para el crimen. REGLA 2: Si el inculpado tenía un motivo Entonces el inculpado es culpable (Cf con2 =0.60) Ejemplo:

19 19 Aparentemente las relaciones entre el inculpado y su suegra no son buenas, por lo que la certeza que el jurado asigna a esta evidencia es sólo de 0.5. Así CF evid2 = 0.5 La certeza asociada a la conclusión de la regla es entonces: CF new = CF comb2 = CF con2 * CF evid2 = 0.6 * 0.50 = 0.30 Esta evidencia debe ser combinada con la obtenida anteriormente: CF revised = CF old + CF new * ( 1 - CF old ) = * ( ) = Ejemplo:

20 20 En este momento el acusado se siente perdido y todo parece estar en su contra. Sin embargo todavía hay una esperanza. Existe un testigo que puede proporcionarle al acusado una coartada. Dice el testigo que el momento del crimen el acusado se encontraba con él. REGLA 3: Si el acusado tiene una coartada Entonces el inculpado (no) es culpable (Cf con3 = - 0.8) Este testigo es una persona muy respetable (es un juez) y en consecuencia el jurado le otorga una certeza muy alta, Así CF evid3 = 0.95 La certeza asociada a la conclusión de la regla es entonces: CF new = CF comb3 = CF con3 * CF evid3 = (-0.8 ) * 0.95 = Esta evidencia debe ser combinada con la obtenida anteriormente:

21 21 Ventajas y desventajas de los Factores de Certeza Ventajas1. Simplicidad computacional. 2. Permite expresar tanto credibilidad como incredibilidad. 3. Permite un SBR con incertidumbre. 4. No se requiere una evaluación estadística para obtener los CFs. (se obtienen de un experto). Inconvenientes1. Las evidencias que no son independientes sólo pueden combinarse dentro de una misma regla. 2. La adición o eliminación de conocimiento de la base de conocimiento puede requerir cambios de los CFs asociados a las reglas.

22 22 Introducción a la Lógica Borrosa Teoría de conjuntos difusos / borrosos (Fuzzy set theory) L. Zadeh, 1965 Modelos difusos de representación y tratamiento de la incertidumbre Definición. Conjunto: La reunión de todos los elementos que verifican una condición El conjunto de todos los elementos de Y que verifican A(x)

23 23 Introducción a la Lógica Borrosa Definición. Conjunto: La reunión de todos los elementos que verifican una condición El conjunto de todos los elementos de Y que verifican A(x) Teoría clásica de conjuntos (Crisp set theory) No pertenece Sí pertenece pertenencia de x al conjunto A Teoría de conjuntos difusos (Fuzzy set theory) Existe un rango de grados de pertenencia entre las posibilidades extremas

24 24 Introducción a la Lógica Borrosa Idea Un conjunto difuso es un conjunto cuya fronteras no están bien definidas (subjetividad, vaguedad, imprecisión,...) y, por tanto, la pertenencia o no de un elemento al mismo contiene una cierta incertidumbre Bayes Aleatoriedad de eventos definidos de manera precisa Conjuntos Difusos Subjetividad en la calificación de eventos no aleatorios

25 25 Ejemplo: Sea el conjunto de las personas consideradas altas definido sobre el conjunto de la población española, y consideremos un elemento del mismo denominado pepe. La cuestión de si pepe pertenece o no al conjunto de las personas altas puede resolverse atendiendo a la medida altura(pepe) y una función que mide la posibilidad de ser considerado alto en base a la altura alto (altura) altura (m)

26 26 Definición de la Función de posibilidad (Función de pertenencia) 1. Como una función de cualquier conjunto de parámetros p k (x) del elemento x. 2. Por enumeración de pares definidos sobre elementos discretos del conjunto donde – no representa una suma, sino una agregación de pares. – a(x)/x no representa ningún cociente, sino un par (posibilidad/elemento) Ejemplo: Sea el ejemplo anterior donde se definía el conjunto de personas altas. Si el conjunto de posibles alturas se representa por un conjunto de alturas discretas, U, tal que, U= { 1.30, 1.50, 1.70, 1.90, 2.10 } podemos definir la distribución de posibilidad de ser alto sobre el conjunto U como: ALTO = 0.0/ / / / /2.10

27 27 Algunas funciones de pertenencia muy utilizadas

28 28 Algunas funciones de pertenencia muy utilizadas

29 29 Algunas funciones de pertenencia muy utilizadas

30 30 Algunas funciones de pertenencia muy utilizadas

31 31 Algunas funciones de pertenencia muy utilizadas

32 32 Modificadores (Hedges) Es posible introducir conjuntos difusos por transformación lingüística de uno dado. Algunos de los más frecuentes son: muy Amás_o_menos A no A En general, pueden introducirse nuevas clases de cualificadores o modificadores en la forma:

33 33 Extensión cilíndrica En el caso de que se quiera realizar la composición de dos conjuntos cuyas bases de parámetros sean diferentes, será necesario definir una base de parámetros comunes. A este proceso se le denomina Extensión Cilíndrica. Sea una distribución posibilista del conjunto A sobre el parámetro definido por U 1, dada por: U 1 = { 1, 2, 5 } Y sea otra distribución posibilista del conjunto B sobre el parámetro definido por U 2, tal que: U 2 = { 8, 10, 15 }

34 34 Extensión cilíndrica Se define la extensión cilíndrica de A sobre el producto cartesiano de los parámetros U 1 y U 2, dado por U 3 = U 1 xU 2 como: U (1,8)(1,10)(1,15) U 1 2(2,8)(2,10)(2,15) 5(5,8)(5,10)(5,15)

35 35 Proyección Es el proceso inverso al de Extensión cilíndrica. De él se obtiene una distribución posibilista sobre un conjunto de parámetros inferior de acuerdo con: donde sup es el valor supremo sobre el parámetro x n. Ejemplo: Sea la distribución posibilista A (x,y) dada por: A =1.0/(1, 3) + 0.9/(1, 6) + 0.8/(1, 9) 0.7/(5, 3) + 0.6/(5, 6) + 0.5/(5, 9) 0.4/(8, 3) + 0.3/(8, 6) + 0.2/(8, 9) tiene una proyección sobre Y, A´ (x), dada por: A´= 1.0/ / /8

36 36 Reglas de Composición Dados los conjuntos A y B, cuyas distribuciones de posibilidad son conocidas se define la distribución de posibilidad de una composición de ambas como: A*B (x) = F * ( A (x), B (x)) Unión: A B (x) = F ( A (x), B (x)) Intersección: A B (x) = F ( A (x), B (x)) Complemento: ¬A (x) = F ¬ ( A (x)) F ( A (x), B (x)) S-norma F ( A (x), B (x)) T-norma Normalmente las funciones A B (x), A B (x) y ¬A (x) serán dependientes de la semántica del conjunto. Sin embargo, se puede simplificar tales funciones suponiendo que dependen solamente de las distribuciones de los conjuntos A y B por separado.

37 37 Simplificación 1: Comportamiento monótono Por ejemplo: coches_veloces coches Dado que se verifica:A A B B A B A B A A B B entonces por la simplificación anterior deben verificarse también: A (x) A B (x) B (x) A B (x) A B (x) A (x) A B (x) B (x) A B (x) max( A (x), B (x)) A B (x) min( A (x), B (x)) Esto implica que deben cumplirse las siguienes restricciones sobre las operaciones de unión e intersección

38 38 Simplificación 2: Definición del complementario Para definir la distribución del conjunto complementario se asume la siguiente simplificación: Lo que equivale a:

39 39 Operadores de Zadeh: Zadeh estableció como definición de las leyes de pertenencia a los conjuntos intersección y unión las cotas máximas y mínimas respectivamente de dichos conjuntos: A B (x) max( A (x), B (x)) A B (x) min( A (x), B (x)) A B (x) = max( A (x), B (x)) A B (x) = min( A (x), B (x)) ¬A (x) = 1 - A (x) Estas definiciones no están exentas de paradojas, por ejemplo: A ¬A (x) = max( A (x), 1 - A (x)) 1 Un elemento puede no pertenecer del todo a un conjunto y su complementario A ¬A (x) = min( A (x), 1 - A (x)) 0 Un elemento puede pertenecer a un conjunto y su complementario

40 40 Uniones difusas Intersecciones difusasRango

41 41 Lógica Difusa Se construye a partir de la teoría de conjuntos difusos El grado de verdad o certeza de una proposición p es un valor en el contínuo [0,1] proposiciónp: X es A p (x) = A (x) Para completar el cálculo de proposiciones se definen los conectores AND, OR y NOT p q : (X es A) (Y es B) p: (X es A)

42 42 Lógica Difusa Para completar el cálculo de proposiciones se definen los conectores AND, OR y NOT p q : (X es A) (Y es B) p: (X es A) Puede ocurrir que las distribuciones posibilistas p y q no estén definidas sobre la misma base de parámetros. En ese caso es necesario extender cilíndricamente dichas distribuciones. Por otro lado debe recordarse que : p q (x) max( p (x), q (x)) p q (x) min( p (x), q (x))

43 43 Lógica Difusa En general, definiremos las funciones and(), or() y not() como: p q (x) = or( p (x), q (x)) p q (x) = and( p (x), q (x)) ¬p (x) = not( p (x)) En el caso más general: p q (x,y) = or( p (x), q (y)) p q (x,y) = and( p (x), q (y)) Las funciones and(), or() y not() son dependientes de la semántica de las proposiciones o Universo del Discurso. Deben verificar en cualquier caso las siguientes relaciones para ser compatibles con los valores booleanos en el límite de no borrosidad:

44 44 Lógica Difusa Las funciones and(), or() y not() son dependientes de la semántica de las proposiciones o Universo del Discurso. Deben verificar en cualquier caso las siguientes relaciones para ser compatibles con los valores booleanos en el límite de no borrosidad: or(1, u) = 1 or(0, u) = u and(1, u) = u and(0, u) = 0 not(1) = 0 not(0) = 1 Un conjunto muy amplio de funciones cumplen estas restricciones. Dos modelos muy empleados son los siguientes Modelo de Zadeh: or1(u, v) = max(u, v) and1(u, v) = min(u, v) not(u) = 1 - u Modelo Pseudoprobabilístico: or2(u, v) = u + v - u·v and2(u, v) = u·v not(u) = 1 - u

45 45 Lógica Booleana A) p p 1 B) p p 0 C) p (q r) (p q) r D) p (q r) (p q) r E) p (q r) (p q) (p r) F) p (q r) (p q) (p r) G) (p q) p q H) (p q) p q Modelo de Zadeh or1(u, v) = max(u, v) and1(u, v) = min(u, v) not(u) = 1 - u A) max(u, 1- u) 1 B) min(u, 1 - u) 0 C) D) E) F) G) H)

46 46 Lógica Booleana A) p p 1 B) p p 0 C) p (q r) (p q) r D) p (q r) (p q) r E) p (q r) (p q) (p r) F) p (q r) (p q) (p r) G) (p q) p q H) (p q) p q Modelo Pseudoprobabilístico or2(u, v) = u + v -u·v and2(u, v) = u·v not(u) = 1 - u A) u + (1- u) - u·(1-u) 1 B) u·(1 - u) 0 C) D) E) F) G) H)

47 47 Demostración de la primera ley de Morgan p q=max(p,q) p q p1 - p 1 - p p < q q1 - q 1 - q (p q)=1-max(p,q) p q = min(1-p,1-q) (p q) p q p q p+ q - p·q 1 - p - q + p·q (1 - p)(1 - q) = 1 - p - q + p·q (p q p q

48 48 Inferencia Difusa La operación de implicación se puede expresar en la forma: p q : si (X es A) entonces (Y es B) donde A y B son variables lingüísticas definidas como conjuntos difusos sobre los universos de discurso de X e Y respectivamente. Ejemplos: Si la presión es baja entonces el volumen es grande Si el tomate es rojo entonces está maduro Si la velocidad es alta entonces frenar ligeramente

49 49 Inferencia Difusa El principal problema para establecer un valor de certeza a este operador estriba en definir una interpretación del mismo. Sea imp() una función que proporciona la certeza en una fórmula con implicación. Veamos posibles interpretaciones:

50 50 A) Basada en la equivalencia siguiente, válida en el límite booleano p q ¬ p q p q p q ¬ p ¬p q ¬ q p ¬q ¬(p ¬q) T T T F T F F T T F F F F T T F F T T T T F F T F F T T T T F T De acuerdo con esta interpretación y según los operadores ya definidos: imp1(u, v) = max(1 - u, v) imp2(u, v) = (1 - u) + v - (1 - u)·v

51 51 B) Basada en la idea: La certeza del consecuente es superior o igual a la conjunción del antecedente e implicación p (p q) q (modus ponens) B1) min(u, imp(u, v)) v B2) u * imp(u, v)) v C) Implicación de Lukasiewicz imp5(u, v) = min(1 - u + v, 1)

52 52 Modus Ponens Empleando alguna de las definiciones anteriores de implicación es posible definir el proceso de inferencia difusa empleando modus ponens. p (p q) q Dadas las certezas de un antecedente y la de la implicación, la determinación de la certeza del consecuente se realiza en base a una función generadora del modus ponens que denominaremos mod() La función mod() debe verificar una serie de propiedades, algunas de las cuales son las siguientes: a) mod(u, imp(u, v)) v b) mod(1, 1) = 1 c) mod(0, u) = v d) u v mod(u, w) mod(v, w) a) La función mod() tiene como cota superior la certeza del consecuente b) Este es el límite booleano del modus ponens c) De un antecedente completamente falso puede concluirse cualquier cosa d) La función mod() debe ser monótona creciente con la certeza del antecedente

53 53 Funciones generadoras del modus ponens que resultan de las definiciones de la función implicación presentadas anteriormente:

54 54 Todas estas expresiones son válidas para la realización de inferencia en casos análogos al siguiente: regla:si (x es A) entonces (y es B) premisa:(x es A) (y es B) Y también en casos como el siguiente, donde A y A poseen la misma base de parámetros: regla:si (x es A) entonces (y es B) premisa:(x es A ) (y es B) regla:si (el coche es viejo) entonces (el coche es ruidoso) premisa: (el coche es bastante viejo) (el coche es bastante ruidoso)

55 55 Razonamiento difuso basado en la composición Max-Min Sean A y A conjuntos difusos en X y sea B otro conjunto difuso en Y. Supongamos que la implicación difusa (A B) definida sobre X x Y se expresa como: Nótese que esta definición de la implicación no es sino una expresión equivalente a imp3(u, v). Consideremos la regla, si (x es A) entonces (y es B) y la premisa (x es A ) El conjunto difuso inducido B, se define según hemos visto como

56 56 1. Una regla con un único antecedente Para este caso la ecuación anterior se transforma en: donde w representa un índice de compatibilidad entre la premisa y el antecedente de la regla. x AA x w B B

57 57 si (x es A) y (y es B) entonces (z es C) (x es A ) y (y es B ) (z es C ) 2. Una regla con dos antecedentes Una regla de este tipo puede representarse por una implicación A x B C de manera que:

58 58 donde w 1 w 2 se puede asociar con el grado de satisfacción o intensidad de disparo de la regla

59 59 x AA x w1w1 C C 2. Una regla con dos antecedentes x BB w2w2 min

60 60 3. Múltiples reglas con múltiples antecedentes La interpretación de múltiples reglas se toma usualmente como la unión de las inferencias difusas obtenidas de cada una de las reglas. hecho:(x es A ) y (y es B ) regla 1:si (x es A 1 ) y (y es B 1 ) entonces (z es C 1 ) regla 2:si (x es A 2 ) y (y es B 2 ) entonces (z es C 2 ) consecuencia: (Z es C ) Resulta intuitivo observar que del caso anterior C = C 1 C 2

61 61 x A1A1 A x w 11 C1C1 C1C1 x B1B1 B w 12 min x A2A2 A x w 21 C2C2 C2C2 x B2B2 B w 22 x C max

62 62 Cuando una regla difusa asume la forma si (x es A) o (y es B) entonces (z es C) la intensidad de disparo de la regla (w) viene dada por el máximo de los grados de correspondencia de los antecedentes. Esto es: donde:

63 63 Métodos de concentración (Defuzzification) La utilización de reglas de inferencia difusas produce, tras la evaluación, un conjunto difuso para cada variable del modelo: Ejemplo: si (x es X) entonces (D es A) si (y es Y) entonces (D es B) si (z es Z) entonces (D es C) El conjunto resultante D es un conjunto difuso que representa a una cierta variable D a la que normalmente es necesario asignar un valor escalar. x A y B y C y D Valor escalar

64 64 Métodos de concentración (Defuzzification) x menor de maximos media de maximos mayor de maximos centroide Posibles medidas Todos son métodos heurísticos para encontrar el valor que mejor representa o sintetiza la información contenida en el conjunto difuso. Uno de los más empleados: Centroide:

65 65 Un caso de estudio: Control Difuso de una turbina de vapor Introducción: Se pretende controlar la inyección de combustible en una turbina de vapor al objeto de mantener constante la velocidad. La cantidad de combustible que se consume por unidad de tiempo (tasa de consumo) se incrementa o disminuye mediante la apertura o cierre, repectivamente, de la válvula de inyección en función de la temperatura y la presión en la caldera.

66 66 Se pretende controlar la inyección de combustible en una turbina de vapor al objeto de mantener constante la velocidad. La cantidad de combustible que se consume por unidad de tiempo (tasa de consumo) se incrementa o disminuye mediante la apertura o cierre, repectivamente, de la válvula de inyección en función de la temperatura y la presión en la caldera. Sensor de temperatura Sensor de presión Controlador de la válvula de inyección Planta de la turbina P(t) T(t) Sensores Sensor RPM RPM(t) I(t) Sensor RPM RPM(t)

67 67 1. Descomponer cada variable del modelo en un conjunto de regiones difusas (vocabulario de cada variable) ºC 1 MUY_BAJA BAJA OPTIMA ALTA MUY_ALTA TEMPERATURA

68 Kg/m2 1 MUY_BAJA BAJA OPTIMA ALTA MUY_ALTA PRESIÓN

69 cm/sg 1 CERRAR_MUCHO (CM) CERRAR (C) DEJAR_IGUAL (OK) ABRIR (A) ABRIR_MUCHO (AM) ACCIONES SOBRE LA VÁLVULA CERRAR_UN_POCO (CP) ABRIR_UN_POCO (AP)

70 70 2. Sintetizar las reglas de control (base de conocimiento) Por ejemplo: [R1]Si la temperatura es baja y la presión es muy_baja entonces la acción sobre la válvula es abrir_mucho [R2]Si la temperatura es baja y la presión es baja entonces la acción sobre la válvula es abrir [R3]Si la temperatura es baja y la presión es óptima entonces la acción sobre la válvula es dejar_igual [R4]Si la temperatura es baja y la presión es alta entonces la acción sobre la válvula es cerrar

71 71 3. El Algoritmo A. Leer los sensores de presión y temperatura B. Hacer solución (x) = 0 C. Para todas la reglas cuyos antecedentes no sean nulos C.1 Obtener el mínimo de todos los predicados conectados por operadores conjuntivos (AND) en el antecedente de la regla. P certeza = min(E 1, E 2,..., E n ) C.2 Obtener la certeza de la regla control (x) = min( regla (x), P certeza ) C.3 Asignar el conjunto difuso obtenido en control (x) al conjunto solución mediante una operación de máximo (OR) solución (x) = max( solución (x), control (x) ) D. Concentrar solución (x) (p.e. obteniendo el centroide) para obtener el valor escalar que requiere la acción de control.

72 72 Veamos como funciona Supongamos que tras leer los sensores, la presión cae dentro del dominio de los conjuntos difusos OPTIMA y BAJA; y la temperatura se incluye dentro del conjunto difuso BAJA. Las reglas cuyos antecedentes no son nulos son: [R2]Si la temperatura es baja y la presión es baja entonces la acción sobre la válvula es abrir [R3]Si la temperatura es baja y la presión es óptima entonces la acción sobre la válvula es dejar_igual

73 ºC 1 MUY_BAJA BAJA OPTIMA ALTA MUY_ALTA Kg/m2 1 MUY_BAJABAJAOPTIMAALTA MUY_ALTA cm/sg 1 CERRAR_MUCHO (CM) CERRAR (C) DEJAR_IGUAL (OK) ABRIR (A) ABRIR_MUCHO (AM) CERRAR_UN_POCO (CP) ABRIR_UN_POCO (AP)

74 ºC 1 BAJA Kg/m2 1 BAJA cm/sg 1 ABRIR (A) ºC 1 BAJA Kg/m2 1 OPTIMA cm/sg 1 DEJAR_IGUAL (OK) TemperaturaPresión Acciones de control sobre la vávula cm/sg 1 DEJAR_IGUAL (OK) Centroide= 23 cm/sg

75 75 Bibliografía. [Mend-92]J. Méndez Apuntes del Curso de I.A. U.L.P.G.C. [Rich-91] E. Rich, K. Knight Artificial Intelligence McGraw-Hill, [Gonz-93]A. J. Gonzalez, D.D. Dankel The Engineering of Knowledge-Based Systems Prentice-Hall, 1993.


Descargar ppt "Fundamentos de IA 5. Inferencia e Incertidumbre Jorge Cabrera Gámez Departamento de Informática y Sistemas Universidad de Las Palmas de Gran Canaria ©"

Presentaciones similares


Anuncios Google