Gesellschaft für Informatik e.V.
Grundlagen von Datenbanken
[gi_mit]

17. Workshop über Grundlagen von Datenbanken

17. bis 20. Mai 2005 in Wörlitz

Teilnehmer und Beiträge


Eingeladene Vorträge

Prof. Dr. Wolfgang May, Georg-August-Universität Göttingen

Reasoning im und für das Semantic Web

Das "SemanticWeb" bietet (und erfordert) ein weites Spektrum an wissenschaftlichen Teilbereichen, von der darunterliegenden technischen Realisierung über Datenhaltung und Wissensrepräsentation, Kommunikation bis hin zu - teilweise unentscheidbaren - Logikformalismen. Damit bietet es sich insbesondere zur bereichsübergreifenden, wenn man seine Anwendungen mit einbezieht, auch zur fachübergreifenden Forschung an. In diesem Beitrag wird ein Überblick gegeben wie in dem EU FP6 NoE "ReWeRSe" (Reasoning on the Web with Rules and Semantics) Forschungsgebiete aus verschiedenen Bereiche der theoretischen und praktischen Informatik kombiniert werden. Hierbei werden insbesondere im Umfeld des Bereiches "Datenbanken" relevante Aspekte betrachtet.

Annegret Warnecke, Oracle Deutschland GmbH Berlin

Architektur und Funktionaltitäten der Oracle XML DB - ein Überblick mit ausgewählten praktischen Beispielen

XML als logisches Konzept braucht die praktische Unterstützung durch technologische Umsetzung, um seine Wirksamkeit in breitem Umfang entfalten zu können. Eine Plattform dazu bietet die Firma Oracle mit der sogenannten Oracle XML DB. Die relationale Welt und XML gehen dabei eine sehr fruchtbare Verbindung ein. Die Oracle XML DB ist ein Bestandteil der "klassischen" Oracle Datenbank und bietet eine weitestgehende Durchlässigkeit beider "Welten" an. Dies beinhaltet sowohl beidseitige Umwandlungsmöglichkeiten als auch die weitestgehende Anwendung bestehender Rahmentechnologien aus der Oracle Datenbank für in XML Form gespeicherte Dokumente. Zudem erweitert sich auch der Funktionsumfang für relational abgespeicherte Daten. Dies geschieht z.B. durch die Verbindung von relationalen Tabellen mit XML Schemata (durch XML Type Views) oder, indem ein direkter Zugriff auf relationale Tabellen über den Browser ermöglicht wird (über den "Umweg" eines Pseudo-XML-Dokumentes).
Inhalt dieses Beitrages wird es sein, die Architektur und die Grundfunktionalitäten der Oracle XML DB zu erläutern und anhand von ausgewählten praktischen Beispielen vorzustellen.

Vortragsfolien: [PPT] (342kB) [PDF Farbe] (165 kB) [PDF Graustufen] (162kB),
Demoskripte: [DOC] (123kB) [PDF] (188kB)


Reguläre Vorträge

Stefan Audersch, Zentrum für Graphische Datenverarbeitung e.V. (ZGDV) Rostock

Visuelle Exploration und semantikbasierte Fusion multivariater Datenbestände

Ausgangspunkt dieses Beitrages ist ein Anwendungsszenario, das medizinische Messwerte im Rahmen einer Klinischen Studie betrachtet. In diesem Szenario geht es um die Analyse multivarianter Patientendaten (z.B. Leber-, Blut- und Nervendaten) unter Einsatz von Data Mining und Visualisierungstechniken in verteilten Umgebungen. Obwohl die erhobenen Daten eine semantische Einheit bilden, werden sie aufgrund unterschiedlicher technischer und fachlicher Anforderungen in Teildatenbestände zerlegt und getrennt voneinander analysiert. Das entwickelte KnowledgeDirect-Framework dient der universellen Exploration und semantikbasierten Fusion multimedialer sowie multivariater Datenbestände und ermöglicht es, die getrennt erzielten Analyseergebnisse unter Nutzung von Ontologiewissen zusammenzuführen. Die von den Explorationsquellen bereitgestellten parametrisierbaren Data Mining- und Visualisierungstechniken, Analyseprozesse, Rohdaten und aggregierte Daten lassen sich integrieren und erlauben, globale Analysen über den gesamten Datenbestand durchzuführen. Mit semantisch gesteuerter Interaktions- und Navigationstechnik wird es auf einfache Weise ermöglicht, Daten aus verschiedenen Explorationsquellen zu selektieren, zu kombinieren, anzuzeigen und mit ihnen zu interagieren. Zentraler Kern der Architektur ist das Knowledge Explore Gateway, bestehend aus der Control, Retrieval und der Integration Engine. Aufgabe der Integration Engine ist die Einbindung verschiedener Explorationsquellen, welches mit der semantischen Integration der in den Quellen bereitgestellten Datenstrukturen, Analyseergebnissen, Analyseprozessen, Data Mining und Visualisierungstechniken einhergeht. Grundlage für die Integration sind semantische Beschreibungen, die im Metadatenrepository verwaltet werden. Einen adäquaten Zugriff auf die Metadaten erhält das Knowledge Explore Gateway über die Retrieval Engine. Die Knowledge Control Engine ermöglicht die einfache Kombination der einzelnen Funktionen und Daten der Explorationsquellen auf Basis der semantischen Beschreibungen und erlaubt weiterhin die Erweiterung um komplexe Funktionalität auf dem Gebiet des Data Minings und der Visualisierung, wie z.B. 3D-Darstellungen. Der Zugriff auf verschiedene Quellen erfolgt derart transparent, dass sämtliche Aktionen explorationsübergreifend möglich sind. Eine Zuordnung von Daten zu einer bestimmten Explorationsquelle dient nur der Orientierung und birgt keine Einschränkungen in Bezug auf die Nutzung dieser Daten im Zusammenhang mit anderen Explorationsquellen. Im Rahmen einer prototypischen Implementierung wurden die entwickelten Konzepte und Methoden innerhalb des medizinischen Anwendungsszenarios evaluiert.


Sacha Berger, Ludwig-Maximilians-Universität München

Towards static type checking of Web query languages

This article reports on a research project investigating the following two complementary issues: (1) improving how the structure of XML and HTML can be specified, (2) using structure specification (of XML and HTML documents) for static type checking of Web (and Semantic Web) query programs. The first step towards this goal is to provide a schema language like DTD, XML Schema or Relax-NG with better support of graph structured data.


Joos-Hendrik Böse. Freie Universität Berlin

Transaktionale Garantien in mobilen Ad-Hoc Netzen

Transaktionale Garantien, wie z.B. Atomarität, werden in festen Netzen durch Protokolle realisiert, die auf der Annahme basieren, dass Kommunikationsfehler selten auftreten. In mobilen Umgebungen müssen Kommunikationsfehler aber als Standardfall angenommen werden. Entsprechend müssen neue Ansätze und Architekturen für mobile Umgebungen gefunden werden. Das hier beschriebene Projekt schlägt eine Architektur vor, welche es ermöglichen soll, Transaktionen mit definierten Ausführungsgarantien in mobilen Netzen zu nutzen. Der Fokus liegt dabei auf Atomaritätsgarantien in Handelstransaktionen. Hierzu wird ein entsprechendes Protokoll präsentiert, welches die vorgeschlagene Architektur benutzt, um Atomarität bei Tauschtransaktionen zwischen mobilen Knoten zu gewährleisten.


Tim Furche, Ludwig-Maximilians-Universität München

XML Perspectives on RDF Querying: Towards integrated Access to Data and Metadata on the Web

The integral processing of data and metadata is starting to get recognized as a central challenge for the next decade (e.g. in Pat Selinger's ICDE 2005 Keynote) not only as part of realizing the Semantic Web vision, but also on a smaller scale as part of the next generation of desktop data management (cf. Apple's Spotlight and Microsoft's WinFS). In this article, we focus on metadata represented in the W3C's RDF formalism. We illustrate first steps towards integrating access to RDF metadata and access to standard Web data in XML format. For this, two XML views over RDF data are expressed in the query language Xcerpt and discussed. These views illustrate two different approaches for integrating RDF metadata processing and current data processing techniques.


Jürgen Göres, Technische Universität Kaiserslautern

PALADIN: A Pattern-based Approach to LArge-scale Dynamic INformation integration

The nascent data grid technology aims to make access to globally distributed, structured and semi-structured databases possible. However, only integrated, transparent access to this data sources, abstracting not only from distribution and implementation details, but also from the diverse forms of heterogeneity, allows maximum leverage for the envisioned dynamic forms of inter-organisational cooperation. Traditional integration technologies rely on a human-driven development process and are therefore not applicable for the ad-hoc style of integration required in these scenarios. PALADIN aims to automate integration planning by using patterns that capture expert knowledge in a machine-processable way. A pattern describes a generic problem constellation encountered in information integration and describes a guideline to its solution, represented as transformations on a graph-oriented representation of the data source schemas and their data.


Katja Hose, Technische Universität Ilmenau

Top-n Anfrageverarbeitung in PDMS: Anforderungen und Lösungswege

Da P2P-Netzwerke gewöhnlich aus einer großen Anzahl von Peers bestehen und somit große Datenmengen bereitstehen, ist es oft unnötig wenn nicht sogar unmöglich, dem Nutzer ein vollständiges Ergebnis seiner Anfrage durch Einbeziehung aller teilnehmden Peers zu präsentieren. Vielmehr muss in P2P-Systemen begründet durch deren Charakteristik zumeist auf Best-Effort-Lösungen zurückgegriffen werden. Ein Beispiel dafür stellen Top-N-Anfragen dar. Als Ergebnis wird ein gemäß der Ähnlichkeit zur gestellten Anfrage sortiertes Ergebnis erwartet, das die "besten" zum gegebenen Zeitpunkt im Netzwerk vorhandenen Datenwerte widerspiegelt, ohne dabei eine kostenintensive Berechnung vorauszusetzen. Die dabei gestellten Anforderungen an die Anfrageverarbeitung umfassen zumeist eine möglichst geringe Bearbeitungsdauer sowie eine möglichst hohe Korrektheit des Ergebnisses bezüglich aller im Netzwerk vorhandenen Daten. In der vorliegenden Arbeit wird zum Einen vorgestellt, welche Anforderungen an die Umgebung, in der Top-n-Anfragen bearbeitet werden sollen, zu stellen sind. Zum Anderen werden konkrete Lösungsansätze vorgestellt, die die Bearbeitung derartiger Anfragen auf effiziente Art und Weise realisieren.


Sascha Koch, Oldenburger Forschungs- und Entwicklungsinstitut für Informatik-Werkzeuge und -Systeme (OFFIS)

Modellierung mathematischer und kausaler Maßzahlen-Beziehungen in der multidimensionalen Datenanalyse

Unterschiedliche Organisationen setzen zunehmend auf organisationsweites Performance Management zur strategischen Steuerung. Dabei wird angestrebt, die Strategie zu operationalisieren und die Leistung (Performance) der Organisation gezielt zu beeinflussen. Das am weitesten verbreitete Instrument zur Umsetzung dieser Idee ist die Balanced Scorecard. Darüber hinaus gibt es jedoch eine Vielzahl weiterer Performance-Management-Ansätze. Zugrunde gelegt werden vermutete Ursache-Wirkungsbeziehungen zwischen strategischen Zielen. Zudem werden die einzelnen Ziele mit Indikatoren verknüpft, um die Zielerreichung überwachen zu können. Für die Spezifikation von auf Maßzahlen (Kennzahlen) basierenden Indikatoren kann in vielen Organisationen auf vorhandene integrierte Datenbestände (z.B. Data Warehouses) zurückgegriffen werden, die eine multidimensionale und analyseorientierte Sicht auf die Daten bieten.
Da Organisationen ihre Strategie aufgrund veränderter Ziele oder Rahmenbedingungen kontinuierlich anpassen, kann die Etablierung von Performance Management kein einmaliger Vorgang sein. Stattdessen müssen Ziele, vermutete Ursache-Wirkungsbeziehungen zwischen Zielen, die Verknüpfung von Zielen mit Indikatoren sowie Indikatoren und die zugrunde gelegten Maßzahlen selbst in einem nicht endenden Zyklus hinterfragt und angepasst werden.
In diesem Beitrag wird der Performance-Management-Kreislauf vorgestellt und auf dieser Basis ein Metamodell abgeleitet, das die Zusammenhänge von Zielen, Indikatoren und Maßzahlen im Performance Management beschreibt.


Hieu Le Quang, Heinrich-Heine-Universität Düsseldorf

Integration of Web Data Sources: A Survey of Existing Problems

Integration of web data sources is difficult because of the heterogeneous nature of the Web. A problem is that web data sources come in and come out frequently. Another problem is that an exact comparison between data elements in several data sources is not feasible since the data sources are owned by different organizations and therefore there are usually subtle differences in describing the same data. Or often queries need to access data sources in more than one domain. Furthermore new web standards and technologies such as XML, web services, the OWL Web Ontology Language, ... give new opportunities and pose new challenges.
In this paper, we investigate/survey on these problems and related studies as well as give our general ideas on how we could work on these problems.


Thomas Leich, Otto-von-Guericke-Universität Magdeburg

Ein merkmalsorientierter Speichermanager für eingebettete Systeme

Der Bereich der eingebetteten Systeme ist ein bedeutender Markt. Etwa 98 \% aller weltweit hergestellten Rechnersysteme sind als eingebettete Systeme im Einsatz. Ihre Einsatzgebiete sind beispielsweise Autosteuerungen oder Sensornetzwerke. Häufig benötigen derartige eingebettete Rechnersysteme Infrastruktursoftware zur Datenhaltung. Auf Grund der Heterogenität der Hard- und Software, sowie der extremen Ressourcenbeschränkung, ist eine Adaption der klassischen Mehrzwecksysteme aus Großrechnern oder dem PC-Bereich nicht möglich. Eine Maßschneiderung der Datenmanagementfunktionalität auf den jeweiligen Anwendungskontext, sowie auf die Hard- und Software-Umgebung ist unumgänglich. Die hierfür benötigten Komponenten müssen leichtgewichtig, minimal und feingranular sein. Eine Kombination von Komponententechniken, sowie merkmalsorientierter und generativer Programmierung bietet Möglichkeiten zur Überwindung der genannten Probleme. Im Folgenden werden der Entwurf und die Implementierung mittels merkmalsorientierter Domänenanalyse und merkmalsorientierter Programmierung eines Speichermanagers im Sinne einer Produktlinienarchitektur beschrieben. Als Bewertungsgrundlagen dienen die Anzahl der möglichen Variationspunkte und die mögliche Anzahl sinnvoller Systemvarianten.


Mazeyar E. Makoui, Universität Hannover

Anfrageoptimierung in objektrelationalen Datenbanken mit bedingten Termersetzungen

Die bisherige Optimierung von Anfragebäumen mit Hilfe von relationalen Termersetzungssystemen bietet durch generell bekannte Heuristiken (z. B. frühzeitige Ausführung von Projektionen und Selektionen) kaum eine Basis für weitere Optimierungsstrategien zur Anfrageoptimierung in objektrelationalen Datenbanken. In diesem Artikel werden bekannte algebraische Termersetzungen um kostenbasierte Bedingungen erweitert. Als Basis dafür dienen sowohl Metadaten von vorhandenen Relationen, als auch der einzusetzenden Operatoren und Zugriffsmethoden. Diese werden durch ein erweitertes Kostenmodell während der Optimierung berücksichtigt und verbessern damit den Entscheidungsprozeß verschiedener Anfrageoptimierungsalgorithmen. Als Beispiel hierfür wird der von Vance/Meier (1996) vorgeschlagene Join-Ordering-Algorithmus nicht nur um Selektionen (Scheufele/Moerkotte 1998), sondern auch um Projektionen erweitert. Dabei dienen die bedingten Termersetzungen als Pruningmethoden, um die Suche stark einzuschränken. Obwohl bekanntlich das Hinzufügen von weiteren Operatoren die Laufzeit des Algorithmus stark verschlechtert (der Suchraum wird stark vergrößert), können durch bedingte Termersetzungen annähernd gleich gute Laufzeiten erreicht werden. Dadurch wird eine Optimierungsumgebung präsentiert, die durch Anpassung unseres Kostenmodells weitere Operatoren mit in die Optimierung einfließen lassen kann und somit in jedem Fall bessere Ergebnisse liefert, als die bislang erwähnten Join-Ordering-Verfahren.


Christian Mathis, Technische Universität Kaiserslautern

A Query Processing Approach for XML Database Systems

Besides the storage engine, the query processor of a database system is the most critical component, when it comes to performance and scalability. Research on query processing for relational database systems developed an approach which we believe should also be adopted for the newly proposed XML database systems (XDBS). It includes a syntactic, and semantic analyzation phase, the mapping onto an internal query representation, algebraic and cost-based optimization and finally the execution on a record-oriented interface. Each step hides its own challenges and will therefore be discussed throughout this paper. Our contribution can be understood as a road-map that reveals a desirable set of functionalities for an XML query processor.


Thomas Müller, Friedrich-Schiller-Universität Jena

SQL-basierte Datenbankzugriffe und XML: Verarbeitung von Anfrageergebnissen in Anwendungsprogrammen

Die sich noch in Vorbereitung befindende nächste Version der SQL-Norm erlaubt erstmals Anfrageergebnisse, die komplette XQuery-Sequenzen enthalten. Im vorliegenden Beitrag wird ein Beispielszenario vorgestellt, bei dem es sinnvoll ist, Ausschnitte der im SQL-Anfrageergebnis enthaltenen XQuery-Sequenzen direkt im Anwendungsprogramm zu verarbeiten. Der Beitrag beschreibt den entsprechenden Verarbeitungsablauf und diskutiert grundsätzliche Möglichkeiten für die Programmiersprachenrepräsentation der Sequenzausschnitte.


Markus Preißner, Leuze electronic GmbH & Co KG (ehem. Universität Hamburg)

Modellierung und Entwicklung von Pliable Objects zur Unterstützung des Aufbaus von Informationssystemen im medizinischen Anwendungsgebiet der Anästhesie

Im medizinischen Anwendungsgebiet der Anästhesie ist ein hohes Informationsaufkommen zu dokumentieren. Der Einsatz moderner Informationssysteme, die Unterstützung bei der Erfassung und dem "Bereitstellen" von anästhesiespezifischen Informationen leisten, wird gefordert. Die Art und Anzahl der zu dokumentierenden anästhesiologischen Informationen, orientieren sich an der fachlichen Ausrichtung der Klinik, z.B. Unfall-, Herz- oder Kinderklinik, der die Anästhesieabteilung angehört. Ein standardisiertes Informationssystem kann die individuelle, eventuell mobile Anästhesiedatenverarbeitung nicht dokumentieren, da ein nach objektorientierten Gesichtspunkten gestaltetes Anästhesiemodell nicht dynamisch formbar ist. In dem vorliegenden Beitrag werden Pliable1 Objects entwickelt, die über die Dynamik verfügen, an anwenderspezifische individuelle Anforderungen anpassbar zu sein.


Jan Rittinger, Universität Konstanz

Pathfinder/MonetDB: A High-Performance Relational Runtime for XQuery

Our research prototype Pathfinder/MonetDB evaluates XQuery expressions using a relational database. The first version has grown into a system, which stands before its first release. Concepts like join detection, looplifted path steps and order awareness helped us to build a scalable system, which evaluates queries on large XML instances in interactive time. The presentation provides an overview of the applied concepts and optimizations. Additionally its effects on the evaluation times as well as a comparison between Pathfinder/MonetDB and other systems will be shown.


Eike Schallehn, Otto-von-Guericke-Universität Magdeburg

Konzepte zur Datenqualitätssicherung in analytischen Anwendungen

Mit der zunehmenden Verwendung von Datenbanksystemen und stetig wachsenden Datenvolumen wird die Frage nach der Qualität der verwalteten Daten immer bedeutender. Entsprechend wurden die Fragen, was genau Datenqualität ist und wie man sie messen und bewerten kann, in den letzten Jahren zu einem aktuellen Thema in der Forschung und in der industriellen Praxis. Inbesondere bei analytischen Anwendungen ist eine Bewertung der Qualität der zu Grunde liegenden Daten wichtig, um eine Aussage über die Güte der abgeleiteten Analyseergebnisse machen zu können. Dies wird in Anwendungen, die auf einem Data Warehouse oder ähnlichen Ansätzen basieren, zunehmend problematisch, da Informationen zur Qualität integrierter Datenbestände nur schwer ableitbar sind.
Während grundlegende Ansätze zu spezifischen Problemen der Bewertung und Messung von Datenqualität existieren, ist die Integration entsprechender Funktionalität in Informationssystemen immer noch ein weitgehend ungelöstes Problem. Diese Aufgabenstellung wird in unserer aktuellen Forschung in Kooperation mit Industriepartnern angegangen.


Christoph Schmitz, Universität Kassel

Towards Content Aggregation on Knowledge Bases through Graph Clustering

Recently, several research projects such as PADLR and SWAP have developed tools like Edutella or Bibster, which have been targeted at establishing peer-to-peer knowledge management systems. In such a system, it is necessary for participants to provide brief descriptions of themselves, so that routing algorithms or matchmaking processes can make decisions about which communities peers should belong to, or to which peer a given query should be forwarded.
In this talk, I propose the use of graph clustering techniques on knowledge bases for that purpose. After a brief round-trip over an ontology-based P2P knowledge management scenario, I will demonstrate the automatic generation of self-descriptions of peers' knowledge bases through the use of graph clustering.
Viewing the knowledge base of a peer as a graph consisting of concepts and instances, one can employ clustering techniques to partition it into clusters of similar entities. From each cluster, a representative can then be selected (e.g. the centroid). This yields a list of entities giving an aggregated self description of the peer.


Anke Schneidewind, Otto-von-Guericke-Universität Magdeburg

Einfache Dimensionsreduktion als Konzept der interaktiven Suche in Bilddatenbanken

Die Suche in Bilddatenbanken die über keine Bildannotationen verfügen ist bis heute problematisch geblieben. Eines der Hauptprobleme ist die semantische Lücke zwischen digitaler und visueller Ähnlichkeit. Ein weiteres Problem ist der "Fluch der hohen Dimensionen" der aufgrund der vielen Dimensionen der Bild-Feature-Vektoren auftritt. Auswirkungen sind hohe Kosten für die Ähnlichkeitssuche und eine langwierige Nutzer-Computer-Interaktion die oft in einer kleinen unbefriedigenden Bildmenge stagniert.
Das vorliegende Konzept soll Vorzüge bekannter Strategien nutzen und gleichzeitig die hohen Kosten reduzieren. Der Nutzer bestimmt Bilder die für ihn ähnlich und relevant sind. Durch Projektion werden die Bilder im Vektorraum zueinander gebracht und der gesamte Vektorraum in einem Rechenschritt um eine Dimension reduziert. Dadurch kommen sehr weit entfernte Bilder in den Betrachtungskreis des Nutzers. Der Nutzer kann so schnell einen Überblick über den Datenbestand erhalten. Ziel ist ein Retrievalsystem mit kurzen Antwortzeiten, dass ein browsendes Navigieren erlaubt, und dabei die Vielfalt möglicher Ähnlichkeiten nicht einschränkt.


Henrike Schuhart, Universität zu Lübeck

Persistenz- und Transaktionskonzepte in XOBEdbpl - einer Datenbankprogrammiersprache für XML-Anwendungen

XML als Datenaustauschformat zwischen verschiedenen Anwendungen gewinnt mehr und mehr an Bedeutung. Heutige Applikationen manipulieren und operieren im allgemeinen mit Hilfe von Objekten. Ein Austausch erfordert also einen Mapping-Prozess sowohl zwischen Objekten und XML als auch umgekehrt. Falls eine Applikation darüberhinaus dieselben Daten auch persistent speichern will, kommen häufig aus Performance Gründen relationale Datenbanken zum Einsatz. Das heißt es findet ein weiterer Mapping-Prozess zwischen den Objekten der Programmiersprache und den Tabellen der relationalen Datenbank statt, ebenfalls in beide Richtungen. Programmierer einer solchen Applikationen müssen daher viele verschiedene Schnittstellen verwenden bzw. komplexe Frameworks benutzen. In dem XOBEDBPL (XML OBjEcts DataBase Programming Language) Projekt wird eine Sprache basierend auf Java entwickelt, die diese Mapping-Prozesse überflüssig macht. Java wird syntaktisch und semantisch um XML, XPath und Update-Ausdrücke erweitert. Desweiteren wird eine persistente Umgebung eingeführt, die transparente und typunabhängige Persistenz integriert. Datenkonsistenz vor allem im Zusammenhang mit Mehrbenutzerbetrieb wird durch Transaktionsintegration in Java erreicht.


Petra Schwaiger, Universität Passau

Antwortmengenprogrammierung in der Praxis - eine Fallstudie

Die Bedeutung des E-learning zeigt sich unter anderem in der zunehmenden Verwendung von Prüfungsmanagementsystemen, welche unter anderem zum Zwecke der Zusammenstellung von Tests eingesetzt werden. Das Problem der Auswahl von Fragen unter vorgegebenen Randbedingungen ist in der Praxis oftmals nur unzureichend gelöst. In dieser Arbeit stellen wir hiervon eine umfassende Lösung in Smodels vor.


Boris Stumm, Technische Universität Kaiserslautern

Robuste Systemevolution durch automatische Unterstützung

Unternehmen integrieren ihre Systeme immer stärker miteinander, um den größtmöglichen Nutzen aus den Informationen zu ziehen. Resultat sind hochkomplexe, verteilte Informationssysteme mit einer Vielzahl von Abhängigkeiten zwischen den beteiligten Einzelsystemen. Informationslandschaften unterliegen ständig verschiedenen Formen von Veränderung durch Umstrukturierungen, Neuanschaffungen usw. Während das bei einzelnen Systemen unproblematisch ist, können sich lokale Änderungen in einer integrierten Informationslandschaft auf andere Systeme auswirken. Das reicht vom Totalausfall über Datenkorruption bis hin zu subtilen Fehlern, die möglicherweise erst viel später entdeckt werden. Diese negativen Auswirkungen müssen daher auf ein Minimum (sowohl an Zahl als auch an Dauer) reduziert werden. Das ist auf organisatorischer Ebene alleine (z. B. neue Geschäftsprozesse zur Koordination der Verantwortlichen) nicht zu bewältigen. In dieser Arbeit stellen wir einen Ansatz vor, der Entwickler und Systemverwalter einerseits bei Planung und Durchführung von Änderungen unterstützt, und andererseits das Gesamtsystem robust macht gegen ungeplante lokale Systemänderungen.


Silke Trißl, Humboldt-Universität zu Berlin

Anfragen an Ontologien in relationalen Datenbanken

Ontologien und Taxonomien sind kontrollierte, strukturierte Vokabulare für eine Domäne um Objekte darin zu beschreiben. Ontologien in der Biologie, wie beispielsweise die Gene Ontology oder die NCBI Taxonomie, die Klassifizierung von Lebewesen, sind als Bäume bzw. gerichtete, azyklische Graphen aufgebaut. Taxonomien werden häufig zusammen mit den annotierten Objekten in relationalen Datenbanken gespeichert. Durch die Struktur der Ontologien bzw. Taxonomien können Beziehungen zwischen Objekten angefragt und erkannt werden. Diese Anfragen innerhalb eines relationalen Datenbanksystem auszuführen setzt entweder die Verwendung von rekursiven Funktionen oder die Indizierung des Graphen voraus. Ich stelle 2 verschiedene Indizierungsmöglichkeiten vor, die transitive Hülle und Pre- und Postorder Ranking, und vergleiche die Anfragezeiten für beide Indexstrukturen mit Anfragezeiten für die rekursive Funktion.


Igor Vaynermann, Friedrich-Schiller-Universität Jena

Service personalization for user support

Mobile users need access to information sources. However, for a number of reasons, the traditional representation of query results is not useful in mobile environments. There is also a pressing question of using network services to provide mobile users with required information. The potential to dynamically bind services at run time is one of the big advantages of service oriented computing. However, dynamic service binding requires rather sophisticated service requests. These requests need to be precise enough to allow for automatic invocation of the service without user intervention, while at the same time flexible enough to allow finding all possible candidate services and could be rather clearly represented on a mobile device. Obviously, it is not trivial to formulate such requests. In this paper, we examine how the user could be supported in this complex task.


Johanna Vompras, Heinrich-Heine-Universität Düsseldorf

Towards Adaptive Ontology-Based Image Retrieval

Since the use of large image databases gains in importance nowadays, efficient querying and browsing through image repositories becomes increasingly essential. Compared to text retrieval techniques there are even more problems with image retrieval. Particularly, the semantic gap between low-level visual features of images and high-level human perception of inferred semantic contents decreases the performance of traditional content-based image retrieval systems. The first important step for the correlation of image data with cognitive processes is the identification of discriminative features in the data. The next decisive step is to extract high-level knowledge from this data in order to provide a confident interpretation of signals into symbols. In this paper we demonstrate our first conceptual notions about the integration of spatial context and semantic concepts into the feature extraction and retrieval process using the relevance feedback procedure.


Christoph Wieser, Ludwig-Maximilians-Universität München

Context Modeling in OWL for Smart Building Services

An automated recognition of the location of people (at desk, in a room, underway, etc.) in a building makes ist possible to offer advanced services such as:

This article describes central software components towards such "Smart Building" services:

Finally, this article explains, why standards (1) for the data, sensors might collect in buildings, (2) for an ontology of common life objects, properties and action, and (3) for an interface between afore mentioned formalisms are needed for making it easier to reason on such data and knowledge.


Teilnehmer ohne Vortrag


E-Mail: gvd2005@informatik.uni-halle.de
CG, Halle (Saale), den 24.05.2005 10:01:53

Valid HTML 4.01!