Hallo Ralph, Am Dienstag, 2. August 2005 15:08 schrieb Ralph Mueller:
Ab welcher Datenmenge lohnt der Einsatz von z.B. MySQL? Ich möchte vermeiden unnötig "mit Kanonen auf Spatzen zu schießen".
wenn Dir die Datenintegrität wichtig ist, gibt es kein mit Kanonen auf Spatzen schießen.
Die Datendateien dürfen auf keinen Fall durcheinandergeraten wenn mal ausnahmsweise 2-3 Benutzer (fast) gleichzeitig darauf zugreifen um einzelne Sätze zu lesen oder zu ändern. Falls selber programmiert werde ich wohl nicht umhin kommen die entsprechende Datei für ein paar Sekunden vor dem Zugriff von anderen Benutzern zu sperren. Wie wird dieses Sperren von den "professionellen" Datenbanken gemacht? Wie gewohnt mit Lockfile?
Ne, das ist bei Datenbanken ein bißchen komplizierter. Es gibt ja auch verschiedene Arten von Sperren: die ganze Tabelle, einzelne Datensätze nur für Schreibvorgänge, auch für Lesevorgänge etc.
Und wenn ausgerechnet in dem Sekundenbruchteil zwischen Prüfen und Lockfile-Setzen doch ein anderer Benutzer drauf zugreift? Kann so eine Situation auch mit (z.B.) MySQL auftreten? Wie ist das dort gelöst? Nach welchen Stichwörtern muß ich hier googlen?
such mal nach "datenbank und acid"
Ein Sperren einzelner Datensätze wird aber m.E. nicht notwendig sein.
Gibt's bei guten Datenbanken gratis dazu.
Was habt Ihr an Erfahrungen/Infos? Danke im voraus.
Ich bin nun nicht jemand mit gigantischen Datenaufkommen, aber bei meinen ca. 7GB und ca. 20 Millionen Datensätzen hat mich postgres bisher nicht enttäuscht. Wenn Du Dich erst einmal ein bißchen mit einer Datenbank beschäftigt hast und Du einige Möglichkeiten kennengelernt hast, findest Du vielleicht noch andere Anwendungsmöglichkeiten für Deine Projekte. Meiner Meinung nach kann zumindest grundlegendes Wissen um Datenbanken und ihre Möglichkeiten nie schaden. Ralf -- Summer is butter on your chin and corn mush between every tooth. -- Calvin