Ciao,
voi avete esperienza se per grandi quantita' di dati e un carico di lavoro grande sia piu' performante e scalabile mysql o postgresql?
Mi chiedo se con uno dei due si puo:
1) clusterizzare 2) replicare 3) analizzare le query piu' lente negli ultimi giorni 4) analizzare le query lente per capire cosa e' lento (execution plan) 5) ottimizzazione dell'accesso al disco 6) utilizzo di ram (se cresce al crescere del carico o se rimane piu' o meno costante) 7) utilizzo cpu (si mantine costante o si "mangia" il 100% e blocca tutto il resto?)
Grazie!
Ciao,
voi avete esperienza se per grandi quantita' di dati e un carico di lavoro grande sia piu' performante e scalabile mysql o postgresql?
Mi chiedo se con uno dei due si puo:
- clusterizzare
- replicare
- analizzare le query piu' lente negli ultimi giorni
- analizzare le query lente per capire cosa e' lento (execution plan)
- ottimizzazione dell'accesso al disco
- utilizzo di ram (se cresce al crescere del carico o se rimane piu'
o meno costante) 7) utilizzo cpu (si mantine costante o si "mangia" il 100% e blocca tutto il resto?)
Grazie!
Ti risponde con delle controdomande:
1) chi dovra` amministrare il sistema ha piu` esperienza con MySQL o con PostgreSQL?
2) cosa intendi per clusterizzare? fail-Over? Multi-server? Quanto critico e` l'integrita` dei dati? (comunity-forum o sito ecommerce)? Quanto critico e` la disponibilita` del sistema?
3) La domanda 7 non e` veramente comprensibile. Puoi riformularla?
4) puoi descrivere meglio "carico di lavoro grande"? Tante transazioni al secondo (OLTP)? Query complesse su tanti dati (OLAP)? Tempi di risposte brevi? ...? Numeri?
5) a livello applicativo cosa ci gira? chi programma il livello applicativo ne capisce qualcosa di database?
Bye, Chris.
--- Chris Mair chris@1006.org http://www.1006.org