La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

7.  El TDA Diccionario.

Presentaciones similares


Presentación del tema: "7.  El TDA Diccionario."— Transcripción de la presentación:

1 7.  El TDA Diccionario

2 ¿Qué es un Diccionario ? Dado un conjunto de elementos {X1, X2, ..., XN}, todos distintos entre sí, se desea almacenarlos en una estructura de datos que permita la implementación eficiente de las operaciones: búsqueda(X): dado un elemento X, conocido como llave de búsqueda, encontrarlo dentro del conjunto o decir que no está. inserción(X): agregar un nuevo elemento X al conjunto. eliminación(X): eliminar el elemento X del conjunto. Estas operaciones describen al TDA diccionario. En el presente capítulo se verán distintas implementaciones de este TDA y se estudiarán las consideraciones de eficiencia de cada una de dichas implementaciones.

3 interface Diccionario {
public Object buscar(Comparable x); public boolean cambiar(Comparable x,Object y); public boolean agregar(Comparable x,Object y); public boolean borrar(Comparable x); }

4 Implementaciones sencillas
Una lista enlazada, con la inserción de nuevos elementos al comienzo. búsqueda: O(n) (búsqueda secuencial). inserción: O(1) (insertando siempre al comienzo de la lista). eliminación: O(n) (búsqueda + O(1)). Arreglo ordenado: inserción y eliminación ineficientes ("correr" los elementos) Sin embargo, la ventaja que tiene mantener el orden es que es posible realizar una búsqueda binaria para encontrar el elemento buscado.

5 Programacion de la Búsqueda binaria
Invariante Inicialmente: i = 0 y j = n-1. En cada iteración: Si el conjunto es vacío (j-i < 0), o sea si j < i, entonces el elemento x no está en el conjunto (búsqueda infructuosa). En caso contrario, m = (i+j)/2. Si x = a[m], el elemento fue encontrado (búsqueda exitosa). Si x < a[m] se modifica j = m-1, sino se modifica i = m+1 y se sigue iterando.

6 Programacion de la Búsqueda binaria
public int busquedaBinaria(int []a, int x) { int i=0, j=a.length-1; while (i<=j) { int m=(i+j)/2; if (x==a[m]) return m; else if (x<a[m]) j=m-1; else i=m+1; } return NO_ENCONTRADO; // NO_ENCONTRADO se define como -1

7 Eficiencia de la Búsqueda binaria
Todo algoritmo de búsqueda basado en comparaciones corresponde a algún árbol de decisión. Cada nodo de dicho árbol corresponde al conjunto de elementos candidatos en donde se encuentra el elemento buscado. Los arcos del árbol corresponden a los resultados de las comparaciones, (mayor que o menor que) Es decir, es un árbol de decisión binario. El número de comparaciones realizadas por el algoritmo de búsqueda es igual a la altura del árbol de decisión (profundidad de la hoja más profunda).

8 Eficiencia de la Búsqueda binaria
Lema: sea D un árbol binario de altura h. D tiene a lo más 2h hojas. Demostración: por inducción. Lema: un árbol binario con H hojas debe tener una profundidad de al menos Demostración: directo del lema anterior. Si n es el número de nodos de elementos del conjunto, el número de respuestas posibles (hojas del árbol de decisión) es de n+1, el lema anterior implica que el costo en el peor caso es mayor o igual que el logaritmo del número de respuestas posibles. Corolario: cualquier algoritmo de búsqueda mediante comparaciones se demora al menos preguntas en el peor caso. Por lo tanto, la búsqueda binaria es óptima.

9 Métodos auto-organizantes
Idea: cada vez que se accede a un elemento Xk se modifica la lista para que los accesos futuros a Xk sean más eficientes. Algunas políticas de modificación de la lista son: TR (transpose): se intercambia de posición Xk con Xk-1 (siempre que k>1). MTF (move-to-front): se mueve el elemento Xk al principio de la lista. Se puede demostrar que Costooptimo<=CostoTR<=CostoMTF<=2Costooptimo.

10 ¿Arbol Binario de Búsqueda o Arbol de Búsqueda Binaria(ABB)?
Estructura de datos (recursiva) que está vacía , o contiene un nodo raíz con un valor y referencias a dos ABBs (izquierdo y derecho) los valores contenidos en el subárbol izquierdo son menores que el valor en la raíz los valores contenidos en el subárbol derecho son mayores que el valor en la raíz

11

12

13

14

15

16

17

18

19

20

21 Diccionario con ABB 11-agosto(J.Alvarez)

22 Árboles AVL (Adelson-Velskii & Landis, 1962)
En árboles de búsqueda binaria la complejidad de las operaciones encontrar, insertar y eliminar son en el peor caso: (n). Puede mejorarse! Idea: árboles balanceados. Definición: Un árbol es un árbol de búsqueda binario en el cual para cada sub-árbol T ' = < L, x, R > se cumple que | h(L) - h(R) |  1 El factor de balance es frecuentemente incluido como información en cada nodo.

23 |h(I) – h(D)| < = 1 Este es un árbol AVL

24 Este no es un árbol AVL (el nodo con un
Este no es un árbol AVL (el nodo con un * no cumple la condición requerida)

25 Objetivos 1. Cómo pueden mantenerse las características de un árbol AVL (invariante de la estructura de datos) cuando se insertan y eliminan nodos? 2. Veremos que para árboles AVL la complejidad de las operaciones es en el peor caso = O(altura del árbol AVL) y que esto es = O(log n)

26 Preservación del invariante de un AVL
Despues de insertar y eliminar nodos de un parbol debemos procurar que el árbol resultante siga manteniendo las carácterísticas de un árbol AVL. Por ejemplo: si ponemos el 1, 2 y 3 en ese órden, al insertar 3 se desbalancea Al insertar 5,4,7,6 y 9 y luego eliminar 4 se desbalancea Solución ? Re-balancing: rotaciones simple y doble

27 Existen sólo 2 casos (y sus espejos)
Caso desbalanceo por inserción El nuevo elemento es insertado en el subárbol derecho (izquierda) del hijo derecho, quien ya era más alto que el subárbol izquierdo por un nivel. El nuevo elemento es insertado en el sub-arbol izquierdo(derecho) del hijo derecho(izquierdo) el cual ya era mayor que el subárbol izquierdo(derecho) en 1

28 Rotacion simple (para el caso en que el subárbol derecho crece demasiado cuando se le hace una inserción en su subárbol derecho) Es transformado en

29 Rotación doble (para el caso en que el subárbol derecho crezca demasiado cuando se le hace una inserción en su subárbol izquierdo) Rotacion doble Es transformado en

30 b Primera rotación a c W x y Z nuevo nuevo a Segunda rotación b W c x nuevo neu y Z

31 Re-balanceo después de la inserción:
Deapues de una inserción el árbol puede aún estar balanceado o : teorema: después de una inserción solo se necesita una rotación simple o doble en el primer nodo desbalanceado * para restablecer las propiedades de balance de un árbol AVL. (* : on the way from the inserted node to the root). Razón: despues de la rotación el árbol vuelve a su altura original !

32 El mismo análisis para borrar nodos
Solo 2 casos (y sus espejos) El elemento borrado reduce la altura del subárbol derecho (izquierdo) que ya era más chico en 1 que el izquierdo (derecho) El elemento borrado reduce la altura del izquierdo (derecho) dejando el subárbol izquierdo del derecho (derecho del izquierdo) con una altura mayor en 2

33 Gráficamente Nodo borrado
1 1 1 Las situaciones son las mismas que para la insersión

34 Re-balanceo despues de borrado
Despues de borrar un nodo el árbol puede aún estar balanceado o habrá que re-balancearlo: Teorema: despues de borrar un nodod en un arbol AVL las propiedades de balanceo del sub-árbol que tiene su raíz como primer* nodo que se desbalancea se poueden restituir con una rotación simple o doble. (* : on the way from the deleted note to the root). Sin embargo: la altura del sub-arbol resultante puede haberse acortado en 1, eso significa que se puede haber introducido un desbalance por lo que podría ser necesario (recursivamente) hacer rotaciones hasta llegar eventualmente a la raíz

35 About Implementation While searching for unbalanced sub-tree after an operation it is only necessary to check the parent´s sub-tree only when the son´s sub-tree has changed it height. In order make the checking for unbalanced sub-trees more efficient, it is recommended to put some more information on the nodes, for example: the height of the sub-tree or the balance factor (height(left sub-tree) – height(right sub-tree)) This information must be updated after each operation It might be convenient to have an operation that returns the parent of a certain node (for example, by adding a pointer to the parent).

36 Complexity analysis– worst case
Sea h la altura de un arbol AVL. Búsqueda: como en un árbol de búsqueda binaria O(h). Insert: como en un árbol de búsqueda binaria (O(h)) mas el costo de una rotación simple o doble (solo una!), que es constante : o sea O(h). delete: como en un árbol de búsqueda binaria (O(h)) más el costo (posible) de una rotación en cada nodo desde el nodo eliminado hasta la raíz, que es a lo más órden de la altura del árbol: O(h). Todas las operaciones son O(h). ¿Pero cuanto es h ?

37 Calculando altura de un árbol AVL
Sea N(h) el numoero mínimo de nodos para un árbol AVL de altura h (h altura máxima para n) In an AVL-tree having height h. N(0)=1, N(1)=2, N(h) = 1 + N(h-1) + N(h-2) for h  2. N(3)=4, N(4)=7 Se parece a los números de Fibonacci fibo(0)=0, fibo(1)=1, fibo(n) = fibo(n-1) + fibo(n-2) fib(3)=1, fib(4)=2, fib(5)=3, fib(6)=5, fib(7)=8 Calculando podemos decir que: N(h) = fibo(h+3) - 1 Principio de construccion 1 3 2

38 Sea n el numero de nodos de un árbol AVL de altura h
Sea n el numero de nodos de un árbol AVL de altura h. Entonces se cuple que n  N(h) , pues N(h) es el número mínimo Recordemos que fibo(n) =(1 /sqrt(5)) (Ф1n - Ф2n) con Ф1= (1+ sqrt(5))/2 ≈ 1.618 Ф2= (1- sqrt(5))/2 ≈ 0.618 Podemos entonces escribir n  fibo(h+3)-1 = (Ф1 h+3 – Ф2h+3 ) / sqrt(5) – 1 n  (Ф1 h+3/sqrt(5)) – 3/2, Por lo tanto, aplicando log a ambos lados h+3+log Ф1(1/sqrt(5))  log Ф1(n+3/2), Por lo tanto, hay una constante c para la cual h  log Ф1(n) + c = log Ф1(2) • log2(n) + c = 1.44… • log2(n) + c = O(log n).

39 Arboles B (búsqueda externa)
Los algoritmos vistos hasta ahora funcionan bien cuando todos los datos estan en memoria RAM, la vual es (más) rápida Grandes conjuntos de datos están guardados normalmente en memoria secundaria (hard disk) de acceso (más) lento (de veces más lento) Acceso: siempre a un bloque completo (page) de datos (4096 bytes), que es guardado en RAM (caché) Por eficiencia: mantener el número de accesos a las páginas bajo! Un nodo = una página

40 Preámbulo: Arboles 2-3 Los nodos internos pueden contener hasta 2 elementos por lo tanto un nodo interno puede tener 2 o 3 hijos, dependiendo de cuántos elementos posea el nodo.

41 Propiedad todas las hojas están a la misma profundidad, es decir, los árboles 2-3 son árboles perfectamente balanceados La altura está acotada por

42 Inserción se realiza una búsqueda infructuosa y se inserta dicho elemento en el último nodo visitado durante la búsqueda, implica manejar dos casos distintos:

43 Ejemplos

44 Eliminación Físicamente se debe eliminar un nodo del último nivel
Si el elemento a borrar está en un nodo interno el valor se reemplaza por el inmediatamente anterior/posterior Estos necesariamente están en último nivel

45 Caso simple El nodo donde se encuentra Z contiene dos elementos. En este caso se elimina Z y el nodo queda con un solo elemento.

46 Caso complejo 1 El nodo donde se encuentra Z contiene un solo elemento. En este caso al eliminar el elemento Z el nodo queda sin elementos (underflow). Si el nodo hermano posee dos elementos, se le quita uno y se inserta en el nodo con underflow.

47 Caso complejo 2 Si el nodo hermano contiene solo una llave, se le quita un elemento al padre y se inserta en el nodo con underflow. Si esta operación produce underflow en el nodo padre, se repite el procedimiento anterior un nivel más arriba. Finalmente, si la raíz queda vacía, ésta se elimina. Costo de las operaciones de búsqueda, inserción y eliminación en el peor caso: Θ (log(n))

48 Para búsqueda esterna: una variante de árboles de búsqueda:
1 node = 1 page Multiple way search trees

49 Multiple way-search trees
Definición (recursiva) : La forma básica de un multiple way-search tree es un conjunto vacío de claves {} Sean T0, ..., Tn multiple way-search trees con claves tomadas de un conjunto común S, y sean k1,...,kn una secuencia de claves tales que k1 < ...< kn. Entonces la secuencia : T0 k1 T1 k2 T2 k kn Tn Es un multiple way-search tree si se da que: Para cada claves x de T0 x < k1 Para i=1,...,n-1, para cada clave x en Ti, ki < x < ki+1 Para cada clave x de Tn kn < x

50 B-Tree Definicion: Un B-Tree of Order m es un multiple way tree con las siguientes características 1  #(claves en la raíz)  2m y m  #(claves en el nodo)  2m para todos los otros nodos. Todos los caminos de la raíz a alguna hoja son del mismo largo. Cada nodo interno (no hoja) con s claves tiene exactamente s+1 hijos. Árboles 2-3 es un caso particular para m=1

51 Ejemplo: un B-tree de orden 2:

52 Evaluación de B-trees El número minimo posible de nodos que puede tener un B-tree de orden m y altura h: Número de nodos en cada sub-tree 1 + (m+1) + (m+1) (m+1)h-1 =  ( (m+1)h – 1) / m. La raíz del ábol minimal tiene una sola clave y dos hijos, todos los demas tienen m claves. Sumando: número minimo de claves n en un B-tree de altura h: n  2 (m+1)h – 1 Por lo tanto para todo B-tree de altura h con n llaves s e cumple: h  logm+1 ((n+1)/2) .

53 Ejemplo Lo siguiente se cumple para todo B-tree de altura h con n llaves: h  logm+1 ((n+1)/2). Ejemplo: para Page size: 1 KByte y (1024 Cada clave mas el puntero: 8 bytes, nos caben 128 datos en un nodo. Si tomamos m=63, para un número de datos de n= Tenemos      h  log < 4 por lo cual hmax = 3.

54 Algoritmo de búsqueda en un B-tree
Algorithm search(r, x) //buscar x en un árbol de raiz r; //variable global p = puntero al último node visitado en r, buscar la primera clave y >= x o hasta que no hayan mas if (y == x) {para, p = r, encontrado} else if (r una hoja) {parar, p = r, no encontrado} if (no es la la última clave) { search(puntero a nodo hijo anterior a y , x) } else search(puntero a ultimo hijo, x)

55 Insert y delete de claves
Algoritmo insertar (r, x) //insertar clave x en el árbol de raíz r search( x , r); if (x no encontrado) { sea p la hoja donde paró la búsqueda: insertar x en el nodo apuntado por p en la posicion correcta ; if (p tiene ahora mas de 2m+1 claves) overflow(p); }

56 Algoritmo de Particion (1)
overflow (p) = split (p) Algoritmo split (p) caso 1: p tiene un padre q. Dividir nodo p. La clave de la mitad va para el padre. consideración: el splitting puede ir subiendo hasta llegar a la raiz, en cuyo caso la altura de todo el el árbol se incrementa en uno.

57 Algoritmo Split (2) Algoritmo split (p) Caso 2: p es la raíz.
Dividir nodo . crear un nodo nuevo sobre el actual que contiene la clave del medio (root tiene una clave).

58 Algoritmo borrar (r,x) //borra la clave key x from tree having root r
search for x in the tree with root r; if x found { if x is in an internal node { exchange x with the next bigger key x' in the tree // if x is in an internal node then there must // be at least one bigger number in the tree //this number is in a leaf ! } be p the leaf, containing x; erase x from p; if p is not in the root r { if p has m-1 keys {underflow (p)} } }

59 Algorithm underflow (p)
if p has a neighboring node with s>m nodes { balance (p,p') } else // because p cannot be the root, p must have a neighbor with m keys { be p' the neighbor with m keys; merge (p,p')}

60 Algorithm balance (p, p') // balance node p with its neighbor p' (s > m , r = (m+s)/2 -m )

61 Algorithm merge (p,p') // merge node p with its neighbor perform the following operation:
afterwards: if( q <>  root) and (q has m-1 keys) underflow (q) else (if(q= root) and (q empty)) {free q let root point to p^}

62 Recursion If when performing underflow we have to perform merge, we might have to perform underflow again one level up This process might be repeated until the root.

63 Example: B-Tree of order 2 (m = 2)

64 Cost Be m the order of the B-tree, n the number of keys.
Costs for search , insert and delete: O(h) = O(logm+1 ((n+1)/2) ) = O(logm+1(n)).

65 Remark: B-trees can also be used as internal storage structure:
Especially: B-trees of order 1 (then only one or 2 keys in each node – no elaborate search inside the nodes). Cost of search, insert, delete: O(log n).

66 Remark: use of storage memory
Over 50% reason: the condition: 1/2•k  #(keys in the node)  k For nodes  root (k=2m)

67 Arboles Digitales Cuando sucede que: X = b0b1b2...bk
Los elementos de un conjunto se pueden representar como una secuencia de bits: X = b0b1b2...bk Ninguna representación de un elemento en particular es prefijo de otra. Se puede usar un árbol digital: árbol binario donde la posición de un elemento no depende de su valor, sino de su representación binaria. elementos se almacenan solo en sus hojas, pero no necesariamente todas las hojas contienen elementos también es conocida como trie.

68 Ejemplo El siguiente ejemplo muestra un árbol digital con 5 elementos

69 Búsqueda en un árbol digital
Para buscar un elemento X en un árbol digital se procede de la siguiente manera: Se examinan los bits bi del elemento X, partiendo desde b0 en adelante. Si bi = 0 se avanza por la rama izquierda y se examina el siguiente bit, bi+1. Si bi = 1 se avanza por la rama derecha y se examina el siguiente bit. El proceso termina cuando se llega a una hoja, único lugar posible en donde puede estar insertado X.

70 Inserción en un árbol digital
Suponga que se desea insertar el elemento X en el árbol digital. Se realiza una búsqueda infructuosa de X hasta llegar a una hoja, suponga que el último bit utilizado en la búsqueda fue bk. Si la hoja esta vacía, se almacena X en dicha hoja. En caso contrario, se divide la hoja utilizando el siguiente bit del elemento, bk+1, y se repite el procedimiento, si es necesario, hasta que quede solo un elemento por hoja. Con este proceso de inserción, la forma que obtiene el árbol digital es insensible al orden de inserción de los elementos.

71 Eliminación en un árbol digital
Suponga que el elemento a eliminar es X. Se elimina el elemento de la hoja, y por lo tanto esta queda vacía. Si la hoja vacía es hermana de otra hoja no vacía, entonces ambas se fusionan y se repite el procedimiento mientras sea posible.

72 Costo promedio de búsqueda en un árbol digital
El costo promedio de búsqueda en un árbol digital es mejor que en un ABB, ya que en un árbol digital la probabilidad que un elemento se encuentre en el subárbol izquierdo o derecho es la misma, 1/2, dado que sólo depende del valor de un bit (0 o 1). En cambio, en un ABB dicha probabilidad es proporcional al "peso" del subárbol respectivo. Hn son los números armónicos y P(n) es una función periódica de muy baja amplitud (O(10-6))

73 Arboles de búsqueda digital
En este tipo de árboles los elementos se almacenan en los nodos internos, al igual que en un ABB, pero la ramificación del árbol es según los bits de las llaves. El siguiente ejemplo muestra un árbol de búsqueda digital (ABD), en donde el orden de inserción es B, A, C, D, E:

74 Skip lists Diccionarios con listas enlazadas: simple pero O(n) cuando el diccionario posee n elementos. Se puede modificar la estructura de datos de la lista de modo que cada nodo par se le agrega una referencia al nodo ubicado dos posiciones más adelante en la lista. Modificando ligeramente el algoritmo de búsqueda, a lo más   nodos son examinados en el peor caso.

75 Skip lists Esta idea se puede extender agregando una referencia cada cuatro nodos: a lo más    nodos son examinados: El caso límite: cada 2i nodo posee una referencia al nodo 2i posiciones más adelante en la lista. El número total de referencias se dobla, pero ahora a lo más   nodos son examinados durante la búsqueda. La búsqueda en esta estructura de datos es básicamente una búsqueda binaria, por lo que el tiempo de búsqueda en el peor caso es O(log n).

76 Skip lists: problema Estructura de datos demasiado rígida para permitir inserciones de manera eficiente. Solución: relajar levemente las condiciones. Se define un nodo de nivel k como aquel nodo que posee k referencias. Se observa de la figura que, aproximadamente, la mitad de los nodos son de nivel 1, que un cuarto de los nodos son de nivel 2, etc. En general, aproximadamente n/2i nodos son de nivel i.

77 Skip lists Cada vez que se inserta un nodo, se elige el nivel que tendrá aleatoriamente en concordancia con la distribución de probabilidad descrita. Por ejemplo, se puede lanzar una moneda al aire, y mientras salga cara se aumenta el nivel del nodo a insertar en 1 (partiendo desde 1). Esta estructura de datos es denominada skip list. La siguiente figura muestra un ejemplo de una skip list:

78 Operaciones en Skip lists
Búsqueda: buscar  X, comienzar con referencia superior de la cabecera. Realizar recorrido a través de este nivel (pasos horizontales) hasta que el siguiente nodo sea mayor que X o sea null. Cuando esto ocurra, se continúa con la búsqueda pero un nivel más abajo (paso vertical). Cuando no se pueda bajar de nivel, esto es, ya se está en el nivel inferior, entonces se realiza una comparación final para saber si el elemento X está en la lista. Inserción: proceder como en búsqueda, manteniendo una marca en los nodos donde se realizaron pasos verticales, hasta llegar al nivel inferior. El nuevo elemento se inserta en la posición en donde debiera haberse encontrado, se calcula aleatoriamente su nivel y se actualizan las referencias de los nodos marcados dependiendo del nivel del nuevo nodo de la lista.

79 ABB óptimos (cont) W(q0,q6)+C(q0,q4)+C(q5,q6) esto es, el costo del árbol completo es igual al "peso" del árbol más los costos de los subárboles. Si la raíz es k: Ci,j = Wi,j + Ci,k-1 + Ck,j

80 Construcción de ABB óptimos
Obviamente hay que conocer las probabilidades de antemano Si el árbol completo es óptimo, entonces los sub-árboles también lo son, pero al revés no necesariamente es cierto, porque la raíz k puede haberse escogido mal. Luego, para encontrar el verdadero costo óptimo C_opti,j es necesario probar con todas las maneras posibles de elegir la raíz k. C_opti,j = mini+1<=k<=j {Wi,j + C_opti,k-1 + C_optk,j} C_opti,i = 0 para todo i=0..n Note que el "peso" Wi,j no depende de la variable k. Si se calcula para todo con raiz k en forma recursiva (equivalente a fuerza bruta) el orden es O(4n) (ver capitulo estructuras elementales, árboles binarios).

81 Construcción de ABB óptimos
Usando programación dinámica (tabulación): for (i=0; i<=n; i++) { C[i,i]=0; // subarboles de tamaño 0 W[i,i]=qi; } for (l=1; l<=n; l++) for (i=0; i<=n-l; i++) { j=i+l; W[i,j]=W[i,j-1]+pj+qj; C[i,j]=mini+1<=k<=j {W[i,j]+C[i,k-1]+C[k,j]} Tiempo: O(n3). Una mejora: se define ri,j como el k que minimiza  mini+1<=k<=j {W[i,j]+C[i,k-1]+C[k,j]}. Intuitivamente ri,j-1 <= ri,j <= ri+1,j, y como ri,j-1 y ri+1,j ya son conocidos al momento de calcular ri,j, basta con calcular  minri,j-1 <= k <= ri+1,j {W[i,j]+C[i,k-1]+C[k,j]}. Con esta mejora, se puede demostrar que el método demora O(n2) (Ejercicio: demostrarlo).

82 Sply Trees Estructura que garantiza que una secuancia de M operaciones se hace en O(M log N), alguna en particular puede tomar O(N) Cuando una secuencia de M operaciones toma O(M f(N)), se dice que el costo amortizado en tiempo de cada operación es O(f(N)) Idea básica: después que un nodo es accesado éste se "sube" hasta la raíz del árbol a través de rotaciones al estilo AVL Si se hace con rotaciones simples puede pasar que algunos nodos queden muy abajo y se puede demostrar que existe una secuencia de M operación que tomen O(N) en promedio (poco probable pero existe)

83 Estrategia La estrategia de "splaying" es similar a la idea de las rotaciones simples. Si el nodo k es accesado, se realizaran rotaciones para llevarlo hasta la raíz del árbol. Sea k un nodo distinto a la raíz del árbol que es accesado. Si el padre de k es la raíz del árbol, entonces se realiza una rotación simple entre estos dos nodos. En caso contrario, el nodo k posee un nodo padre p y un nodo "abuelo" a. Para realizar las rotaciones “convenientes” se deben considerar dos casos posibles (más los casos simétricos).

84 Caso 1 El primer caso es una inserción zig-zag, en donde k es un hijo derecho y p es un hijo izquierdo (o viceversa). En este caso, se realiza una rotación doble estilo AVL

85 Caso 2 El otro caso es una inseción zig-zig, en donde k y p son ambos hijos izquierdo o derecho. En este caso, se realiza la transformación indicada en la figura

86 Efectos del Splying El efecto del splaying es no sólo de mover el nodo accesado a la raíz, sino que sube todos los nodos del camino desde la raíz hasta el nodo accesado aproximadamente a la mitad de su profundidad anterior, a costa que algunos pocos nodos bajen a lo más dos niveles en el árbol. El siguiente ejemplo muestra como queda el splay tree luego de accesar al nodo d.

87 Ejemplo El primer paso es un zig-zag entre los nodos d, b y f.

88 Ejemplo El último paso es un zig-zig entre los nodos d, h y j.

89 Borrado en Sply trees Para borrar un elemento de un splay tree se puede proceder de la siguiente forma: se realiza una búsqueda del nodo a eliminar, lo cual lo deja en la raíz del árbol. Si ésta es eliminada, se obtienen dos subárboles Sizq y Sder. Se busca el elemento m mayor en Sizq, con lo cual dicho elemento pasa a ser su nueva raíz, como m era el elemento mayor Sizq ya no tiene hijo derecho, por lo que se cuelga Sder como subárbol derecho de Sizq, con lo que termina la operación de eliminación. El análisis de los splay trees es complejo, porque debe considerar la estructura cambiante del árbol en cada acceso realizado. Los splay trees son más fáciles de implementar que un AVL dado que no hay que verificar una condición de balance.


Descargar ppt "7.  El TDA Diccionario."

Presentaciones similares


Anuncios Google