共查询到20条相似文献,搜索用时 15 毫秒
1.
Uwe Kubach und Kurt Rothermel 《Informatik - Forschung und Entwicklung》2001,16(4):189-199
Zusammenfassung. Mit der zunehmenden Verbreitung mobiler Endger?te w?chst auch der Bedarf in mobilen Umgebungen auf entfernt gespeicherte
Informationen zuzugreifen. Da dieser Informationszugriff meist über drahtlose Netzwerke erfolgt, treten in mobilen Informationssystemen
h?ufig Probleme wie geringe Bandbreite, gro?e Verz?gerungen oder Verbindungsausf?lle auf. Hoarding-Verfahren versuchen diese
Probleme zu l?sen, indem sie Informationen, auf die der Benutzer voraussichtlich zugreifen wird, im voraus übertragen. Dazu
müssen sie jedoch vorhersagen, welche Informationen der Benutzer ben?tigen wird. In diesem Beitrag stellen wir ein Hoarding-Verfahren
vor, das für diese Vorhersage die Ortsabh?ngigkeit von Informationszugriffen ausnutzt. Wie wir durch Simulationen zeigen,
wird der Speicherplatz auf dem Endger?t dadurch sehr effizient genutzt. (Die hier vorgestellte Arbeit ist mit Unterstützung
der DFG im Rahmen der Forschergruppe Nexus sowie des Graduiertenkollegs Parallele und Verteilte Systeme entstanden.
Eingegangen am 2. Februar 2001 / Angenommen am 1. Juni 2001 相似文献
2.
Bernhard Westfechtel 《Informatik - Forschung und Entwicklung》2001,16(3):125-144
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t
kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten
und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken
von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen)
werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation
generiert, die auf programmierten Graphersetzungsregeln basiert.
Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001 相似文献
3.
Ulrich Thiel André Everts Barbara Lutes und Kostas Tzeras 《Informatik - Forschung und Entwicklung》1998,13(3):147-158
Zusammenfassung. In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte
Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen
in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich
digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen,
die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser
Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen.
Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext
des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver
Logik basieren.
Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998 相似文献
4.
5.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer und S. Hagl 《Informatik - Forschung und Entwicklung》1999,14(1):16-23
Zusammenfassung. Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen.
Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999 相似文献
6.
Arne Frick Rainer Neumann und Wolf Zimmermann 《Informatik - Forschung und Entwicklung》1997,12(4):186-195
Zusammenfassung. In diesem Beitrag wird eine Methode zur Konstruktion robuster Klassenhierarchien vorgestellt. Hierzu wird aus den überlegungen
bezüglich der polymorphen Verwendung von Klassen [2] eine Vorgehensweise zur Konstruktion von Klassenhierarchien abgeleitet.
Die Begriffe Konformit?t und Spezialisierung werden verfeinert, indem nicht mehr s?mtliche Methoden einer Klasse, sondern
Teilmengen davon betrachtet werden. Dies führt zum Begriff der partiellen Konformit?t. In Erweiterung von [2] sind partiell konforme Klassen dann polymorph verwendbar, wenn der Anwendungskontext, der sich aus der Benutzung der Klasse ergibt, sich ausschlie?lich auf konforme Methoden erstreckt. Diese Eigenschaft ist
statisch zur übersetzungszeit überprüfbar. Damit k?nnen Fehlbenutzungen bereits zur übersetzungszeit ausgeschlossen werden.
Eingegangen am 24. Dezember 1996 / Angenommen am 15. Oktober 1997 相似文献
7.
Dirk Meyerhoff Michael Timpe und Dirk Huberty 《Informatik - Forschung und Entwicklung》2000,15(3):133-139
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs-
(QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie
Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung
und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen
eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag
ab.
Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000 相似文献
8.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献
9.
Stefan Conrad 《Informatik - Forschung und Entwicklung》2002,17(3):101-111
Zusammenfassung. Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung
des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein
integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige
Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der
Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben,
bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken
und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die
aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen
schlie?t dieser Beitrag.
Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002 相似文献
10.
11.
12.
Zusammenfassung. Software-Entwurfsmuster sind eine intuitiv einleuchtende Idee, die viele Befürworter hat. Als Forscher dürfen wir die behaupteten
Wirkungen von Entwurfsmustern jedoch nicht einfach glauben, sondern müssen sie gründlich prüfen. Dieser Artikel beschreibt
die wichtigsten Behauptungen und entwickelt daraus zugeh?rige Forschungsfragen. Wir diskutieren die Methodik für ein Forschungsprogramm,
das die Fragen beantworten soll, und skizzieren praktische Beschr?nkungen, unter denen diese Forschung ablaufen mu?. Es folgt
eine kurze Beschreibung von drei kontrollierten Experimenten und den Hauptfolgerungen aus ihren Ergebnissen. So sollte man
zum Beispiel die Benutzung von Entwurfsmustern in einem Entwurf genau dokumentieren und Entwurfsmuster nicht einsetzen, ohne
alternative Entwürfe zu prüfen. Abschlie?end diskutieren wir ein im Rahmen des Forschungsprogramms geplantes viertes Experiment.
Der Beitrag dieses Artikels liegt vorrangig in einer Beschreibung und Diskussion wichtiger methodischer Aspekte kontrollierter
Experimente in der Softwaretechnik.
Eingegangen am 27. Oktober 1998 / Angenommen am 13. M?rz 1999 相似文献
13.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
14.
A. Fieger und M. Zitterbart 《Informatik - Forschung und Entwicklung》2001,16(4):179-188
Zusammenfassung. Dieser Artikel analysiert die Bereitstellung zuverl?ssiger IP-basierter Transportdienste im Kontext des Mobile Computing
auf der Basis des Internetprotokolls TCP. Hierzu erfolgt eine Skizze der Probleme TCPs, insbesondere der TCP-Staukontrolle,
in drahtlosen und mobilen Umgebungen. L?sungsans?tze zur Leistungssteigerung lassen sich in vier verschiedene Kategorien einteilen,
wobei hier der Ansatz der indirekten Transportprotokolle vertieft diskutiert wird. Für die dort erforderliche Migrationsunterstützung
wird mit OMIT ein Rahmenwerk bereitgestellt und exemplarisch bewertet.
Eingegangen am 8. Februar 2001 / Angenommen am 13. Juli 2001 相似文献
15.
Fan Dai 《Informatik - Forschung und Entwicklung》1998,13(1):18-25
Zusammenfassung. Virtuelle Welten stellen Abstraktionen unserer realen Welt bzw. unserer Erfahrung mit der realen Umgebung dar. Diese Abstraktionen
k?nnen Computeranimationen und interaktive 3D-Simulationen, aber auch Geschichten, Erz?hlungen und Tr?ume sein. Wir wollen
sie in diesem Beitrag aus Sicht der Informatik betrachten, wo virtuelle Welten 3D-Szenen sind, die mit rechnerbasierten Techniken
erzeugt werden. Die Anf?nge der rechnergenerierten virtuellen Welten waren Computeranimationen, die seit einigen Jahren kommerziell
verfügbar sind. In den letzten wenigen Jahren hat sich die Technik der virtuellen Realit?t soweit entwickelt, da? zahlreiche
Anwendungen zur visuellen Echtzeitpr?sentation von 3D-Objekten/R?umen realisiert werden k?nnen, die Walkthroughs genannt werden.
Die Entwicklung geht nun in Richtung lebendiger virtueller Welten, in denen sich die virtuellen Objekte bewegen, ver?ndern
und auf die Umgebung, inklusive den Benutzer, reagieren. Dieser Beitrag diskutiert diese Entwicklung und stellt die dazugeh?rigen
Techniken und Methoden vor.
Eingegangen am 5. September 1997 / Angenommen am 3. Februar 1998 相似文献
16.
Steffen Skatulla Ralf Schaarschmidt Peter Pistor und Klaus Küspert 《Informatik - Forschung und Entwicklung》2000,15(3):161-170
Zusammenfassung. Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln.
Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs,
welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs
der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die
klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige
Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge
bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog
(das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema
geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer
solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer
prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit
wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser
konsequent normkonformen Gestalt leider immer noch nicht anzutreffen.
Eingegangen am 5. M?rz 1999 / Angenommen am 1. Mai 2000 相似文献
17.
Dietrich Boles Markus Dreger Kai Gro?johann Cornelia Haber Andreas Kusserow Stefan Lohrum Dirk Menke Jochen Meyer Gerhard M?ller und Ricarda Weber 《Informatik - Forschung und Entwicklung》1998,13(3):110-121
Zusammenfassung. Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und
Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver
gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation
im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen,
verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem
Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben.
Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998 相似文献
18.
Zusammenfassung. Die Bereitstellung eines pr?zisen, effizienten und m?glichst vollst?ndigen Zugriffs auf aktuelle Informationen im Internet
ist eine grundlegende Voraussetzung für die Weiterentwicklung des elektronischen Handels. Dieser Beitrag zeigt, wie themenspezifische
Suchwerkzeuge mit Hilfe mobiler Programme eine solche Bereitstellung leisten k?nnen. Der vorgestellte Ansatz wird durch messdaten-basierte
Simulationen sowie anhand einer Fallstudie evaluiert.
Eingegangen am 15. Dezember 1999 / Angenommen am 10. April 2000 相似文献
19.
Thilo Ernst Clemens Klein-Robbenhaar André Nordwig und Tobias Schrag 《Informatik - Forschung und Entwicklung》2000,15(1):33-50
Zusammenfassung. Es wird eine werkzeugunterstützte Entwicklungsmethodik vorgestellt, die der Erstellung von Berechnungsmodellen für die Simulation
hybrider physikalisch-technischer Systeme dient. Dafür werden verschiedene Modellbeschreibungstechniken dargestellt und klassifiziert,
die anschlie?end in einen falltypischen Entwicklungsproze? eingebettet werden, der auf hybriden Erweiterungen von UML und
Z basiert. Die Simulationsumgebung Smile (http://buran.fb10.tu-berlin.de/Energietechnik/EVT\_KT/smile/) erm?glicht schlie?lich die generische Erzeugung eines ausführbaren
Simulators. Architektur und Kernkomponenten dieses Systems, wie beispielsweise L?sungsverfahren und Experimentshell, werden
eingehender diskutiert. Ein Anwendungsbeispiel illustriert den beschriebenen Entwicklungsproze?.
Eingegangen am 15. Juli 1999 / Angenommen am 12. November 1999 相似文献
20.
H. Gründer K. Geihs T. Knape und F. Baumert 《Informatik - Forschung und Entwicklung》1998,13(1):26-37
Zusammenfassung. Aus Modellierungs- und Implementationssicht ergeben sich unterschiedliche Anforderungen an das Objektmodell in verteilten
Systemen. Einerseits stehen Objekteigenschaften wie Datenabstraktion, Datenkapselung, Modularit?t und Zugriffschutz im Vordergrund.
Andererseits stellen sich Fragen der implementationstechnischen Umsetzung der r?umlichen und zeitlichen Entkopplung, der Parallelit?t,
der Substitution, der Konstruktion und der Evolution von Objekten bzw. von Teilen eines Objektes. Letztgenannte Anforderungen
resultieren aus der Verteilung und der Systemdynamik, die nicht nur verteilten Systemen eigen ist.
Wir stellen in diesem Beitrag ein Konzept vor, das es erlaubt, Objekte in verteilten Systemen flexibel implementieren und
konfigurieren zu k?nnen. Besonderes Gewicht legen wir auf die Unterstützung des Objektentwicklers und -implementierers, ohne
auf die Modellierungsvorzüge des Objektmodells zu verzichten. Wir diskutieren die Anforderungen und leiten daraus unser Entkopplungskonzept
für verteilte Objektsysteme ab. Auf der Basis der CORBA wurde ein Prototyp erstellt, der die Umsetzung dieser Anforderungen
demonstriert.
Eingegangen am 1. Juli 1997 / Angenommen am 6. Februar 1998 相似文献