Bases de Datos - BDD para gran cantidad de datos

   
Vista:

BDD para gran cantidad de datos

Publicado por Albert (1 intervención) el 17/11/2010 11:53:02
Buenas. Vayan las grácias por delante.

Estoy desarrollando una aplicación de medidas meteorológicas que almacena gran cantidad de datos en BDD. (del orden de 2 a 10 Gb, básicamente tipo numérico y texto).

Me gustaria si alguen pudiera recomendarme una BDD potente para manejar tales cantidades. IMPRESCINDIBLE que la BDD sea de UN SOLO FICHERO, tipo Access y que pueda ir protegida por PASSWORD. He probado SQLite que funciona bastante bien pero no comprime los datos, así que para ficheros que normalmente me ocupan 2Gb en SQLite me ocupan 15Gb aprox. Actualmente uso Access pero no funciona bien con tal cantidad de datos.

¿Me recomendais alguna BDD?

¿Se puede compactar SQLite a tiempo real?

Agradezco cualquier ayuda, sugerencia, etc...

Grácias de nuevo.
Valora esta pregunta
Me gusta: Está pregunta es útil y esta claraNo me gusta: Está pregunta no esta clara o no es útil
0
Responder
información
Otras secciones de LWP con contenido de Bases de Datos
- Cursos de Bases de Datos
- Temas de Bases de Datos
información
Cursos y Temas de Bases de Datos
- El modelo relacional
- Teoría de bases de datos
- Cómo instalar MariaDB y primeros pasos

RE:BDD para gran cantidad de datos

Publicado por Franklin Gamboa (188 intervenciones) el 18/11/2010 13:36:30
Cualquier motor de base de datos de verdad (access es un manejador de archivos) te va a soportar esa cantidad de datos y mas... ya que la mayoría de ellas soporta datos en el orden de los terabytes (1024 gb), asi que cualquier opcion que elijas te va a funcionar bien con esa cantidad de datos, que realmente es chica comparada a los datos que generan los sistemas de misión critica (bases de datos por encima de los 100 GB, donde una sola tabla puede medir perfectamente 20GB o mas....

El punto es este: Pocas bases de datos manejan compresión a nivel de datos, muy pocas lo hacen por la carga extra de CPU que significa descomprimir datos... eso tornaría la recuperación y escritura de datos mas lenta y obvio que afectaría los numeros de benchmarking de las bases de datos, por lo que ningún fabricante se ha empeñado seriamente en eso.

Si quieres tener compresion de datos, existen herramientas de terceros que te pueden comprimir los datos en la base de datos, pero no son baratas; y viendo que estas pensando usar SQL Lite podría deducir que hay una limitante en el presupuesto, por lo que mi recomendación es esta:

Los discos duros, la memoria y el CPU son baratos, los programas o bases de datos que implementen algun tipo de compresion (Como SQL Server) no son baratos, ademas que, al hablar de compresion hablamos de tener que descomprimir al leer y comprimir al escribir, lo que agregaría latencia al sistema, sobreutilización de recursos de la maquina (quiza pienses que hoy estas bien en este apartado, pero los datos y las necesidades de negocio recen asi que debe tenerse mucho cuidado con respecto a en que gasto mis recursos de servidor) y esto puede generar una percepcion que el sistema es lento, cosa que nadie quiere.

Si bien es cierto SQL Server tiene una version gratuita (express) tambien es cierto que tiene un limite conrespecto a la cantidad de conexiones concurrentes y el tamaño de la base de datos (4 GB), entre otras cosas, por lo que mejor sigue con SQL Lite o investiga sobre PostgreSQL o MySQL, que son opciones open source, gratuitas y que pueden hacer muy bien el trabajo.
Valora esta respuesta
Me gusta: Está respuesta es útil y esta claraNo me gusta: Está respuesta no esta clara o no es útil
0
Comentar