FTP | CCD | Buscar | Trucos | Trabajo | Foros |
|
Registrarse | FAQ | Miembros | Calendario | Guía de estilo | Temas de Hoy |
|
Herramientas | Buscar en Tema | Desplegado |
#1
|
|||
|
|||
Problema engorde y rendimiento
Buenas a todos,
Tengo una base de datos hecha en FB1.5 que ya funciona correctamente desde hace años. No se exactamente porque en el caso de este cliente la base de datos engorda una barbaridad diariamente. Para que os hagais una idea, una base que se a realizado un backup-restore y se queda en 25mb en cuestion de horas vuelve a ocupar 200mb. El volumen de informacion que se introduce diariamente es minimo. Y la base de datos tiene como maximo 8 usuarios. Si bien es cierto que hay un programa que esta conectado a esta base de datos para importar datos desde otro sistema. Y esta importando los datos de forma constante cada 5 minutos, importando nuevos registros y actualizando los existentes. Con lo que esta importando varias tablas de 12.000 reg. El problema en si no es el tamaño sino que va relacionado con el rendimiento. Pues cuando ha engordado como os comentaba antes a 200mb, 450mb, pues procedimientos almacenados que tardaban menos de 1s tardan 1 min. largo. con el problema que ocasiona pues realiza conflictos de bloqueos. Principalmente se nota el problema en un procedimento almacenado que actualiza datos de tablas de forma masiva. Si vuelvo a realizar un backup-restore el problema se soluciona de inmediato, incluido en dicho procedimiento. Las aplicaciones utilizan IBX + ClientDataSets para acceder a FB1.5. Y utilizan unicamente commits para las transacciones. Todo esto esta montado en un Windows 2008 Server. FB1.5 (tamaño pagina 1024, intervalo limpieza basura 20000, ODS 10.1) De igual forma que al realizar un backup-restore todo vuelve a funcionar rapido, he probado a realizar un 'gfix -sweep -user SYSDBA - masterkey' y me deja la base de datos con el mismo tamaño (gorda) pero todo vuelve a funcionar rapido. Saludos,
__________________
Saludos, Bitman Última edición por Toni fecha: 18-11-2010 a las 17:55:16. |
#2
|
||||
|
||||
Debe haber algo anómalo en el tratamiento de las transacciones porque no es nada normal que tengas problemas de bloqueos, tal y como mencionas:
Cita:
Lo que sí te aconsejo es que cambies el tamaño de página de 1024 a 8192, estás penalizando su rendimiento. |
#3
|
|||
|
|||
Hola Casimiro,
los parametros que tengo en el TIBTransaction que utilizo son los de 'Read Commited' (read_commited, rec_version, nowait) Lo que comentaba sobre los conflictos en los bloqueos es porque al tardar tanto tiempo la ejecucion de un procedimiento almacenado que realiza muchas actualizaciones (masivas) pues puede provocoar eso. Pero cuando todo esta bien funciona muy rapido. Para cambiar el tamaño de pagina que utilizo el gfix? puede dañar la base? Muchas gracias! saludos,
__________________
Saludos, Bitman |
#4
|
||||
|
||||
Hola.
Parece bastante lógico pensar que tus problemas vienen por transacciones demasiado largas (en tiempo y nº de registros). Las transacciones tienen que ser lo más cortas posibles, y sobre todo nunca debes dejar transacciones abiertas con modificaciones realizadas (esos registros quedan bloqueados, con lo que bloquean las importaciones, los procedimientos almacenados, etc. ...). Yo incluso te recomendaría no dejar nunca transacciones abiertas de ningún tipo (ni siquiera que sean de lectura). Así pues, en tu proceso de importación de datos, ve confirmando las transacciones cada poco rato (por ejplo. cada 500 registros es un buen valor), en lugar de esperar hasta el final de la importación. Y en tu aplicación, no dejes nunca transacciones abiertas. Si el usuario tiene que modificar datos, ponlos en un ClientDataset, de manera que el usuario puede modificar los datos tan tranquilamente como quiera (ya que no se mantiene ninguna transacción abierta), y cuando sea necesario los aplicas a la base de datos llamando al método ApplyUpdates (eso inicia una transacción, ejecuta las sentencias INSERT, DELETE y UPDATE necesarias para aplicar a la Base de Datos los cambios realizados a los Datos en el ClientDataset, y cierra automáticamente la transacción. Todo el proceso apenas dura unos pocos milisegundos con la transacción abierta). En definitiva, cuanto más cortas sean tus transacciones, menos posibilidades hay de encontrar bloqueos. Y si las transacciones solo duran unos pocos milisegundos (abres la transacción, lees los datos, se pasan al clientdataset y se cierra, o se realizan los cambios y se cierra) es bastante difícil encontrar bloqueos (yo puedo contar con los dedos de una mano los bloqueos que me he encontrado en diez años usando Firebird). Respecto al tamaño de la base de datos, yo no me preocuparía lo más mínimo por ello. Firebird es una base de datos multigeneracional, cuando modificas un registro se hace una copia del mismo, eso quiere decir que si hay muchas modificaciones simultaneas en largas transacciones abiertas (como parece ser actualmente tu caso), entonces tienes muchas copias de tus registros. Pero una vez confirmada la transacción, ese espacio se reutiliza. Así que tu Base de Datos crecerá hasta un tamaño determinado para poder mantener todas las versiones en memoria que haces en tu uso normal del programa, y a partir de ese punto solo crecerá moderadamente, a medida que se vayan dando de alta registros. NOTA: Aunque verás que si haces las transacciones más cortas, tu base de datos también crece mucho menos (ya que no tiene que mantener tantas versiones simultaneas de los registros). Saludos.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). Última edición por guillotmarc fecha: 18-11-2010 a las 19:45:58. |
#5
|
||||
|
||||
Por mucho que tarde un procedimiento no puede causar errores por bloqueos.
Para cambiar el tamaño de página puedes hacer un backup y restore: gbak -b -t -v -user sysdba -password masterkey tubd.fdb tubd.fbk gbak -r -v -p 8192 -user sysdba - password masterkey tubd.fbk tubd.fdb Edito: acabo de leer lo escrito por guillotmarc, hazle caso Y en cuanto al tamaño de la base de datos, esta mañana he estado atendiendo una duda de un cliente que su BD ha pasado los 24 GB y no se queja por el rendimiento.
__________________
La otra guía de estilo | Búsquedas avanzadas | Etiquetas para código Únete al grupo Teaming clubdelphi | Colabora mediante Paypal Última edición por Casimiro Notevi fecha: 18-11-2010 a las 19:35:19. |
#6
|
||||
|
||||
NOTA: Por cierto, para cambiar el tamaño de la base de datos yo hago un Backup y un Restore (parámetro -P). No creo que puedas hacerlo con el GFix.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). |
#7
|
||||
|
||||
Casimiro, ¿ puedes borrar este último mensaje ?, te me has adelantado.
Gracias.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). |
#8
|
||||
|
||||
Así queda repetido, para machacar mejor las ideas y no olvidarlas
|
#9
|
||||
|
||||
Para el tema de insertar y cerrar transacciones mira este link
Básicamente debes hacer esto
y mejor si lo haces así
Última edición por duilioisola fecha: 18-11-2010 a las 20:43:54. |
#10
|
||||
|
||||
Duilioisola te recomiendo que cambies las excepciones de captura de error por esta :
Puesto que estás dejando abierta la transacción (y los registros bloqueados) hasta que el usuario acepta el mensaje de error. Y no hay ninguna necesidad de ello (imagínate que el usuario mantiene el mensaje en pantalla, para poder llamar al servicio técnico. Igual te deja media hora con los registros bloqueados). Siempre se debería evitar que las transacciones (especialmente las que ya han modificado algo) permanezcan abiertas a la espera de una acción del usuario. Saludos.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). Última edición por guillotmarc fecha: 18-11-2010 a las 21:03:30. |
#11
|
|||
|
|||
Hola,
En mis programas suelo utilizar los componentes IBX + datasetprovider + clientdataset. Y abro las consultas en clientdataset y realizo las actualizaciones mediante el ApplyUpdate(). Esto es lo que suelo utilizar para las consultas y las consultas actualizables. En el programa de importacion que comentaba lo que si es cierto que realizo un commit por cada nuevo registro que añado o modifico, esto lo realizo por que en caso de error en un registro no quiero que afecta a otros posibles registros. Y me deje de importar un bloque de xxx registros. Tambien decir que en este programa de importacion estoy utilizando Ibquery + IbupdateSQL y en otros casos utilizo ibx + dsp + clientdataset. Unos procesos de importacion usan un modelo de datos y otros el otro. Por cierto, para las consultas de modificacion, insercion y/o procedimientos alm. como los utilizais con los clientdataset para sincronizar todo en una transaccion? Muchas gracias a todos. Saludos,
__________________
Saludos, Bitman |
#12
|
||||
|
||||
Muy buen apunte guillomarc.
Habrá que dejarle un mensajito en le blog de Delphi al Limite que es de dónde saqué el código. |
#13
|
||||
|
||||
Hola.
Cita:
Respecto a como sincronizar en una misma transacción varias operaciones. Si tienes abierta una transacción, el ClientDataset realizará los cambios dentro de esa transacción en lugar de abrir una de nueva, por lo que puedes encadenar varios cambios y finalizar la transacción al final para aglutinarlo todo. No te olvides de finalizar por ti mismo la transacción, puesto que si la dejas abierta es cuando empiezas a tener problemas de bloqueos y crecimiento de la base de datos. Te recomiendo que hagas un seguimiento de las transacciones existentes en tu programa. Parece que algún punto debes dejar alguna abierta.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). Última edición por guillotmarc fecha: 19-11-2010 a las 12:08:42. |
#14
|
||||
|
||||
Por cierto, yo en FIBPlus pongo un TimeOut de 1 a mis transacciones para asegurarme de que nunca queden abiertas. No sé si en IBX tienes algo similar.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). |
#15
|
|||
|
|||
Hola,
respecto a esto: Cita:
Pero cuando en el mismo proceso de guardar esos cambios quiero incluir en una misma transaccion una actualizacion o insercion mediante instrucciones SQL (insert, update) o un procedimiento almacenado. Por ejemplo solamente con componentes IBX lo haria asi: Código:
/* componente IBQuery + IBUpdateSQL*/ IBXQuery->Edit(); IBXQuery->FieldByName("Ejercicio")->AsInteger = Ejercicio; IBXQuery->Post(); /* insert, update o procedimiento */ IBXQuery2->ParamByName("P_EJERCICIO")->AsInteger = Ejercicio; IBXQuery2->ExecSQL(); TIBTransaction->Commit(); /* Confirmo todas las operaciones anteriores */ Código:
ClientDataSet->Edit(); ClientDataSet->FieldByName("Ejercicio")->AsInteger = Ejercicio; ClientDataSet->Pots(); /* insert, update o procedimiento */ IBXQuery2->ParamByName("P_EJERCICIO")->AsInteger = Ejercicio; IBXQuery2->ExecSQL(); ClientDataSet->ApplyUpdates(-1); TIBTransaction->Commit(); /* Confirmo todas las operaciones anteriores */
__________________
Saludos, Bitman |
#16
|
||||
|
||||
Hola.
Yo te recomendaría que definas una sola transacción y que la controles manualmente (la inicies y la finalices tú, en lugar de dejar que se haga implícitamente). Cita:
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). |
#17
|
|||
|
|||
Hola,
He probado a ir aislando los problemas y finalmente lo que me engorda la base de datos es la ejecuccion de un procedimiento almacenado que realiza calculos sobre tablas de forma 'masiva'. Algo similiar a esto pero 5 veces con diferentes tablas. Código:
for select "Campo1", "Campo2" from "Tabla1" where "Campo5"=:P_PARAM and "Campo5"<>'F' group by "Campo1", "Campo2" into :P_PARAM2, :P_PARAM3 do begin update "Tabla2" U set "Campo6"='A' where U."Campo1"=:P_PARAM and U."Campo2"=:P_PARAM2 and U."Campo3" = :P_PARAM; end Incluso si lo ejecuto desde el IBManager me engorda la base de datos. Aunque lo que realmente me importa no es el tamaño de base de datos, sino que por algun motivo este engorde afecta al 'rendimiento brutalmente'. Tambien he probado a realizar el cambio de paginado que me comentaba Casimiro, pero al realizar el cambio con la nueva base de datos con el tamañp de paginado a 8192, me empezo a realizar unos extraños (cambiar masivamente el estado de diferentes documentos) y tuve que recuperar la copia de seguridad que habia realizado justo antes. La verdad que no le pude encontrar otra explicacion a la incidencia. No se si tenia que haber cerrado el servicio de FB al realizar el cambio de base de datos. Muchas gracias por las aportaciones.
__________________
Saludos, Bitman Última edición por Toni fecha: 22-11-2010 a las 15:51:52. |
#18
|
||||
|
||||
Hola Toni.
¿ Cuantos registros hay involucrados en ese procedimiento almacenado ?. Si la Base de Datos crece exageradamente, es que se están modificando de golpe una cantidad desorbitada de registros, lo cual ocurre lógicamente en una única transacción con lo que crece la base de datos por el versionado de esos registros (y también explica la caída de rendimiento). ¿ Estás seguro que no hay triggers enmedio que te están forzando la actualización inesperada de más registros en otras tablas ?. Será mejor que revises el código para ver si en ese procedimiento almacenado no estás haciendo muchísimas más actualizaciones de las necesarias.
__________________
Marc Guillot (Hi ha 10 tipus de persones, els que saben binari i els que no). |
#19
|
|||
|
|||
Hola Guillotmarc,
Como comentaba este procedimiento recalcula (suma y agrupa el contenido de unas tablas y actualiza con el resultado otras) las tablas que agrupan tienen al rededor de 11000 registros y la que actualiza tambien. He comprobado que no hay triggers implicados. Se que esto no es lo mas optimo, pero inicialmente funciona bastane bien. A medida que va 'acumulando' versiones de los registros y va aumentando el tamaño de la base de datos, cuando el tamaño se multiplicado ya 5 el rendimiento cae en picado. ¿Pero estos registros no tendrian que influirle tanto, no? ¿la unica manera de mejorar el rendimiento sera hacer backup-restore? Muchas gracias.
__________________
Saludos, Bitman |
#20
|
||||
|
||||
Habría que ver cómo es ese procedimiento. Tendrías que ver si puedes aplicar esta idea a tu procedimiento:
|
|
|
Temas Similares | ||||
Tema | Autor | Foro | Respuestas | Último mensaje |
rendimiento de PHP | Ñuño Martínez | PHP | 1 | 20-09-2006 06:29:55 |
Problema grave de rendimiento | ACK | Firebird e Interbase | 13 | 12-09-2005 17:10:44 |
¿ Cúal es el Rendimiento ? | sierraja | Firebird e Interbase | 7 | 12-09-2005 15:37:44 |
Rendimiento TStringList | Delphius | Varios | 7 | 13-06-2005 07:16:46 |
rendimiento | carlomagno | Firebird e Interbase | 14 | 06-07-2004 17:05:13 |
|