wir haben hier eine MongoDB (lokale Instanz, keine Replicas / Cluster / ...) in welcher ePubs zur Bearbeitung gespeichert werden.
Aktuell hat die DB im Filesystem 46GB, verteilt auf aktuell 24 DB-Files - die üblichen Standard-Größen von Mongo (64, 128, 256, 512MB, 1GB, und dann viele mit 2GB)
Wir stellen nun bei der Benutzung der zugehörigen Applikation fest, daß die MongoDB recht hohe IO-Werte verursacht.
Um das zu optimieren (ohne an die HW des Servers ranzumüssen) stellt sich mir nun die Frage, ob man durch eine andere Organisation der DB-Files evtl. Overhead im Schreibprozess verringern könnte.
Nun sind die Optionen, die MongoDB da bietet recht "gering" - es gibt soweit ich das gesehen habe nur storage.smallFiles.
Hat jemand Erfahrung damit, ob sich diese Option im Zusammenspiel mit größeren Datenobjekten (~ 30-750MB / ePub, im Schnitt 270MB lt. db.stats) auf die IO-Last des Systems auswirkt?
Aktuell hat die DB im Filesystem 46GB, verteilt auf aktuell 24 DB-Files - die üblichen Standard-Größen von Mongo (64, 128, 256, 512MB, 1GB, und dann viele mit 2GB)
Wir stellen nun bei der Benutzung der zugehörigen Applikation fest, daß die MongoDB recht hohe IO-Werte verursacht.
Um das zu optimieren (ohne an die HW des Servers ranzumüssen) stellt sich mir nun die Frage, ob man durch eine andere Organisation der DB-Files evtl. Overhead im Schreibprozess verringern könnte.
Nun sind die Optionen, die MongoDB da bietet recht "gering" - es gibt soweit ich das gesehen habe nur storage.smallFiles.
Hat jemand Erfahrung damit, ob sich diese Option im Zusammenspiel mit größeren Datenobjekten (~ 30-750MB / ePub, im Schnitt 270MB lt. db.stats) auf die IO-Last des Systems auswirkt?