Ver Mensaje Individual
  #17  
Antiguo 30-08-2008
HySTD HySTD is offline
Miembro
 
Registrado: sep 2006
Posts: 15
Reputación: 0
HySTD Va por buen camino
Ok! para lo que se plantea, si tiene que ver el tema de la caché física, explicaré por qué.

El procesador, que genera direcciones virtuales y cuyo rango varía en función de su ancho del bus de direcciones, accede SIEMPRE a caché y no a RAM. A la RAM el procesador sólo accede cuando se producen fallos de caché, entonces el hardware realiza otro tipo de traducción de la dirección virtual a física (hemos supuesto que las caché son en la mayoría de los casos atacadas por direcciones virtuales del procesador), y quien se encarga de atacar a la memoria principal es el controlador (chipset puente norte), para adaptar temas de velocidad y ancho de bus.

Para la resolución al problema que se plantea, (sobre medir los tiempo de acceso medio a memoria, que es distinto a lo planteado al principio sobre llenar la RAM, en cuyo caso vuelvo a repetir sobre el diseño de un driver, para evitar paginación), hay que darse cuenta sólo de un pequeño detalle, y es en la penalización de tiempo que se produce cuando se da un fallo (el dato/instrucción no está en el nivel al que se accede), Y aquí es ahora donde está la clave: observar y comparar la penalización por fallo en los accesos.

Supón que haces un bucle largo, y realizas accesos a "memoria" (nos da igual si el dato está o no en caché, RAM o disco). Si el dato es de primera referencia se producirá un fallo forzoso en caché, con lo cual accederá a RAM, traduciendo la dirección virtual a física. Accede a ella y se trae un bloque o línea completo (por el tema de la localidad espacial), dicho bloque se almacena en caché, para en un segundo acceso al dato o al consecutivo (en el caso de un array o variable consecutiva), el dato ya estará en caché, consiguiendo reducir el tiempo de acceso. Del mismo modo, aunque con muchas más diferencias, ocurriria entre RAM y disco.

La cuestión por tanto, si queremos medir el tiempo en acceder a RAM , lo que tenemos que hacer es asegurar que SIEMPRE se van a producir fallos de caché (fallos de colisión o por conflictos). Para ello es necesario saber ¿Cuantos bytes ocupa cada linea de caché?. Como ésto es dificil de averiguar, lo normal es establecer un valor alto, y mediante un bucle ir incrementando no de 1 en 1, sino de "zancada+1" en "zancada+1", siendo "zancada" el valor estimado del tamaño de un bloque de la caché. Así se asegura un fallo.

Ahora bien, ¿Cuando sabremos que se está accediendo a caché y cuándo a RAM? Esto es fácil de ver utilizando por ejemplo la instrucción RDTSC de ensamblador (Read Time Stamp Counter), cuando observemos un aumento considerable (supondremos que en el bucle no hay interrupciones con otros procesos, cosa difícil de lograr), entonces se habrá accedido a un nivel inferior en la jerarquía de memoria (es decir de caché a RAM). La forma de proceder es exactamente igual que de RAM a disco.

Un saludo.
Responder Con Cita