mettiamo che creo un db oracle da 2 giga... immagino che si allochi tutte le sue tabelline per ottimizzare le prestazioni...
inserisco dati e vanno nello spazio vuoto, tutto ok...
cancello delle righe e si crea spazio che cmq sarà riutilizzato senza troppi problemi, credo, perchè la size totale non cala...
però quando i dati aumentano che succede? se la size supera i 2 giga iniziali viene allocato altro spazio, credo, ma quanto? e quanto ottimizzato? ho idea che dopo un pò di volte che fà così si frammenti un qualche tipo di indice, tipo MFT, e le prestazioni dovrebbero rallentare...
a quel punto che si fà?
sapete se c'è qualche tool di oracle per 'deframmentare', ricompattare o comecaspiodidice?
fare un dump, reinstallare il db + grande e ripristinare il dump può andare? in teoria ricrea le tabelle e inserisce i dati uno per volta, no? quindi (secondo me) potrebbe essere come formattare un disco frammentato e ricopiarci sopra la roba da zero...
che ne dite?
grazie