FTP | CCD | Buscar | Trucos | Trabajo | Foros |
|
Registrarse | FAQ | Miembros | Calendario | Guía de estilo | Temas de Hoy |
|
Herramientas | Buscar en Tema | Desplegado |
|
#1
|
|||
|
|||
Recomiendo un DBA
No es el problema PostgreSQL, para nada, no solo que esta hecho para ese nivel de requerimientos sino que es una de las mejores opciones para aplicaciones de alta criticidad. Por otro lado no se puedo opinar sin tener datos de equipos, estructura de las tablas, consultas, parametros de configuracion de la base, etc. Los motores destinados a grandes volumenes de datos, y muchos usuarios concurrentes, postgres, oracle, db2, sqlserver, etc. si al instalarlos hacemos next next next, andara, pero sera mas o menos como mysql u otros motores que no nombro para no ofender. La gran ventaja que tienen los grandes motores es brindar una amplia posibilidad de hacer tunning que los mas pequeños no tienen, por lo que la diferencia luego de manos expertas analizando el problema puede ser muy significativa
|
#2
|
|||
|
|||
Velocidad de Respuesta
Hola , quisiera preguntarte si lees un solo (1) registro cuanto demora la consulta?
porque si toma menos tiempo de 10 minutos puede ser el alto numero de registros que retornas en la consulta |
#3
|
||||
|
||||
Cuando manejas esos volumenes debes comenzar a dar mas importancia a todos los detalles, desde la forma como construyes un select, por ejemplo: el orden de las tablas, de los campos, las llaves que utilizas... no solo de los indices.
Debes ademas hacer tunning al motor, revisar el canal y el servidor. Normalmente una empresa que maneja estas transacciones debe contemplar una infraestructura que lo soporte(datacenters, cloud..) Y de tu parte queda ademas, revisar si estas haciendo consultas desde un cliente difectamente, o si el trabajo duro de las consultas se hacen en el servidor Por otro lado, debes pensar de una vez en la posibilidad de partir o distribuir tu db, para que solo maneje la transaccionalidad critica y las consultas historicas se hagan hacia un repositirio diferente. Debes calcular el crecimiento a un año como minimo, y como se haria el ba,ckup y fraccionamiento anual. En fin |
|
|
Temas Similares | ||||
Tema | Autor | Foro | Respuestas | Último mensaje |
Insert masivo de datos, cada vez mas lento | papote654 | MS SQL Server | 14 | 16-05-2012 18:02:17 |
Problema de Tipo de datos - PostgreSQL | SEBACOHEN | Conexión con bases de datos | 2 | 30-08-2008 02:17:17 |
Base de datos PostgreSQL de 474 Gb | Casimiro Notevi | La Taberna | 24 | 29-04-2008 21:11:27 |
como hago para agregar datos a PostgreSQL | pnsd_89 | Conexión con bases de datos | 0 | 22-03-2007 18:56:04 |
Barridos de Base de Datos Lento | jmedina | Conexión con bases de datos | 3 | 16-08-2004 01:40:38 |
|