Categories
Programmierung Unix

Es ist alles eine Ansichtssache

Wir stellen in der Firma derzeit Teile unserer alten Software auf eine hippe und coole Rails-Anwendung um. Solange unsere Anwendung nicht fertig ist, muß die alte und die neue Software parallel laufen und auf die gleichen Daten zugreifen können. Da wird die alte Software nicht ändern können und wollen, muß sich Rails entsprechend anpassen. Wir sind ja agil, oder? Ich hätte natürlich die Tabellen gerne möglichst Rails-konform, doch die alten Daten strotzen nur so vor Altlasten: unverständliche oder irreführende mixed-case Namen. Kombiniert man das mit PostgreSQL, hat man ein Problem, da der PostgreSQL-Adapter in Rails die Namen nicht quotet, was PostgreSQL dazu veranlaßt, alle Namen in Kleinbuchstaben zu verwandeln.

Meine Lösung dieses Problems verwendet einige relativ selten genutzte Features von PostgreSQL (andere DBMSse werden vermutlich entsprechende Äquivalente dazu haben). Schemas, Views und Rules. Anfangs wollte ich mit einer sauberen leeren Datenbank anfangen und dann mit Rails Migrations meine Tabellen anlegen. Dies hätte jedoch den Zugriff auf die vorhandenen Tabellen jedoch erheblich erschwert. Ich konnte jedoch auch nicht einfach meine Tabellen in die vorhandene Datenbank reinwerfen, da Rails dann über diese alten Tabellen stolperte und nach entsprechenden Modellen suchte. Die Lösung waren Schemas. Standardmäßig legt PostgreSQL alle Tabellen in einem Schema namens public. Ich legte für meine Anwendung einfach ein eigenes Schema an und wies den Rails DB-User an, standardmäßig in diesem Schema zu suchen.

CREATE ROLE myrailsuser WITH LOGIN PASSWORD 'myrailspass';
CREATE SCHEMA myschema AUTHORIZATION myrailsuser;
ALTER ROLE myrailsuser SET search_path TO myschema,public;

Um sicherzugehen, daß auch Rails immer schön brav in diesem Schema arbeitet und nicht über die durchgezogene weiße Linie fährt, habe ich in der environment.rb folgendes Angegeben:

config.active_record.table_name_prefix = "myschema."

Jetzt konnte ich wie gewohnt mit Migrations in Rails arbeiten und mich vorerst nicht weiter um die alten Tabellen kümmern.

Irgendwann kam es jedoch, wie es kommen mußte, ich mußte auf Daten aus einer der alten Tabellen zugreifen. In meinem Fall waren es die Benutzer, die ich benötigte, um ein Login zu bauen. Die für mich relevanten Felder in der alten Tabelle sehen so aus: (ich habe knapp ein Dutzend uninteressanter Felder hier weggelassen)

                 Table "public.TBLMitarbeiterSTM"
     Column     |            Type             |     Modifiers
----------------+-----------------------------+--------------------
 Personalnummer | integer                     | not null default 0
 Vorname        | character varying(50)       |
 Name           | character varying(50)       |
 E-Mail         | character varying(50)       |
 Passwort       | character varying(10)       |
 Loginname      | character varying(20)       |
 Level          | integer                     |
 inaktiv        | boolean                     |

So wird Rails damit nichts anfangen können. Die Lösung ist ein View:

CREATE OR REPLACE VIEW myschema.users AS
  SELECT "TBLMitarbeiterSTM"."Personalnummer" AS id,
    "TBLMitarbeiterSTM"."Vorname" AS first_name,
    "TBLMitarbeiterSTM"."Name" AS last_name,
    "TBLMitarbeiterSTM"."E-Mail" AS email,
    "TBLMitarbeiterSTM"."Loginname" AS login,
    "TBLMitarbeiterSTM"."Passwort" AS password,
    "TBLMitarbeiterSTM"."Level" AS level
  FROM public."TBLMitarbeiterSTM"
  WHERE NOT "TBLMitarbeiterSTM".inaktiv OR "TBLMitarbeiterSTM".inaktiv IS NULL;
GRANT SELECT ON myschema.users TO myrailsuser;

Damit ist Rails glücklich und akzeptiert den View als Grundlage für ein Modell. Das Modell muß natürlich von Hand angelegt werden und nicht über das generate-Skript:

class User < ActiveRecord::Base
end

Das war’s auch schon. Das Modell kann nun auf die Daten zugreifen, als wäre es eine ganz normale Tabelle.

Gerade als ich mir das wohlverdiente Guinness zum vorgezogenen Feierabend holen wollte, kam mir die Idee, daß es doch ganz toll wäre, könnte das Modell auch die Daten ändern und neue Daten hinzufügen. Dies ist mir auch fast gelungen.

Ein View ist eine Einbahnstraße. Ich kann daraus nur lesen. Glücklicherweise kann man hier mit Rules ein wenig tricksen. Eine Rule kann eine Operation auf eine Tabelle oder View abfangen und stattdessen etwas ganz anderes tun. Ich habe meine Rules angewiesen, Schreiboperationen auf den View abzufangen und stattdessen auf die richtige Tabelle zu schreiben.

DROP RULE IF EXISTS users_upd ON myschema.users;
CREATE RULE users_upd AS ON UPDATE TO myschema.users
  DO INSTEAD
  UPDATE public."TBLMitarbeiterSTM"
    SET "Vorname" = NEW.first_name,
        "Name" = NEW.last_name,
        "E-Mail" = NEW.email,
        "Loginname" = NEW.login,
        "Passwort" = NEW.password,
        "Level" = NEW.level
  WHERE "Personalnummer" = OLD.id;

DROP RULE IF EXISTS users_ins ON myschema.users;
CREATE RULE users_ins AS ON INSERT TO myschema.users
  DO INSTEAD
  INSERT INTO public."TBLMitarbeiterSTM" (
    "Personalnummer", "Vorname", "Name",
    "E-Mail", "Loginname","Passwort", "Level"
  ) VALUES (
    (SELECT MAX("Personalnummer")+1
    FROM public."TBLMitarbeiterSTM"),
    NEW.first_name, NEW.last_name,
    NEW.email, NEW.login, NEW.password, NEW.level
  );

DROP RULE IF EXISTS users_del ON myschema.users;
CREATE RULE users_del AS ON DELETE TO myschema.users
  DO INSTEAD
  UPDATE public."TBLMitarbeiterSTM"
    SET inaktiv = true
  WHERE "Personalnummer" = OLD.id;
GRANT INSERT, UPDATE, DELETE ON myschema.users TO myrailsuser;

Zwei Besonderheiten wäre hier zu erwähnen. Beim Delete lösche ich nicht wirklich den Benutzer. Ich markiere ihn einfach nur als inaktiv und da der View solche Benutzer ausschließt, sieht es so aus, als wäre der Benutzer gelöscht worden. Und da die ursprüngliche Tabelle über keine Sequenz verfügt, um die IDs automatisch zu verteilen, habe ich mir mir einer Art Sequenz für Arme beholfen.

Ein paar Tests von der psql-Kommandozeile zeigten Erfolg. Die Regeln fangen die Zugriffe ab und leiten diese auf die ursprüngliche Tabelle um. Es stellte sich jedoch heraus, daß Rails trotz dieser Regeln kein Insert durchführen kann, da es die Existenz einer Sequenz voraussetzt, die ich in diesem Fall gar nicht habe. Da die ursprüngliche Tabelle auch über keine Sequenz verfügte. Leider ist mir dazu bislang keine Lösung eingefallen. Aber ich hoffe hier auf die Hilfe des Lazyweb.

Categories
Software

Spielereien mit Rules und Check Constraints in PostgreSQL

Ich hatte heute das Problem, daß ich in der Datenbank Zeiträume (Start- und Enddatum) speichern mußte, in denen bestimmte Resourcen in Benutzung sind/sein werden. Eine Resource darf dabei zu einem bestimmten Zeitpunkt nicht mehrfach belegt werden. Ich mußte also sicherstellen, daß sich die Zeitbereiche einer Resource nicht überlappen.

Check Constrainst von PostgreSQL alleine hilft da leider nicht. Der kann nur auf Konsistenz innerhalb eines Datensatzen prüfen, z.B. ob das Startdatum vor dem Enddatum liegt. Soll geprüft werden, ob die neu einzufügenden Daten in irgendeiner Beziehung zu bereits vorhanden Daten stehen, so müssen Regeln (RULE) definiert werden. Dies sieht in meinem Beispiel so aus.

CREATE TABLE sometable (
	id				serial,
	start_date			date		NOT NULL,
	end_date			date		NOT NULL,
	resource			integer	NOT NULL,
	CHECK (start_date<=end_date)
);
CREATE RULE no_overlap_insert AS ON INSERT TO sometable
WHERE EXISTS (
	SELECT * FROM sometable
	WHERE ((( new.start_date>=start_date AND new.start_date<=end_date )
		OR ( new.end_date>=start_date AND new.end_date<=end_date ))
	  AND new.resource=resource)
)
DO INSTEAD NOTHING;

Hier habe ich also ein Check Constrainst, das prüft, ob das Startdatum auch wirklich vor dem Enddatum liegt sowie eine Regel, die verhindert, daß ich eine Resource zu einer Zeit mehrfach belege.

Unschön an dieser Lösung ist jedoch, daß der Check Constrainst einen Fehler hervorruft, wenn die Bedingung nicht erfüllt wird, während die Regel einfach still die Daten verwirft. Man kann also nur anhand der Anzahl der geänderten Datensätze, die nach jedem INSERT/UPDATE zurückgegeben wird, feststellen, ob die Daten erfolgreich gespeichert wurden. Hier wäre es natürlich angenehmer, wenn auch ein Fehler erzeugt würde.

Nicht im Beispiel enthalten ist eine zweite Regel, die verhindert, daß man bereits vorhandene Datensätze so ändert, daß es doch wieder zu Überlappungen kommt. Hierzu muß einfach eine zweite Regel (mit anderem Namen) erstellt werden, die statt ON INSERT ein ON UPDATE enthält.