|
Neues aus den USA
----------------- Microsoft Uebernahme von RSA-Software kritisiert ------------------------------------------------ Die Absicht der "Miocrosoft Corp.", Lizenzen fuer die Uebernahme eines von der "RSA Data Security Inc." entwickelten Systems zum Authentisieren von E-mail Dokumenten zu erwerben, stoesst in U.S.-Regierungskreisen auf Bedenken. Das System ist auch schon von "Digital Equipment", "Lotus Development" und "Novell" uebernommen worden. Die "Apple Corp." und "Sun Microsystems" sind ebenfalls an der Anwendung dieses Verfahrens interessiert, mit dessen Hilfe E-mail Dokumente mit einer "elektronischen Unterschrift" versehen werden koennen, die verhindert, dass diese Dokumente von unauthorisierten Personen abgefangen und ausgewertet werden koennen. Das als "public key cryptographic system" bekannt geworden Verfahren basiert auf einem kryptographischen Ansatz, der bereits 1977 von drei MIT-Professoren entwickelt wurde. Jedem Benutzer eines Computernetzwerkes wird ein spezieller Privatcode ("key") zugewiesen. Zusaetzlich wird ein zweiter Code vereinbart, der auch anderen Netzwerkteilnehmern bekannt ist. Dieser sog. "public key" wird vom Sender benutzt, um e-mail Dokumente zu verschluesseln und einem entsprechenden Empfaengerkreis zugaenglich zu machen. Der sog. "private key" wird vom Empfaenger benutzt, um empfangene Dokumente zu decodieren und deren Authentizitaet festzustellen. Regierungseinrichtungen befuerchten nunmehr, dass die verbreitete Einfuehrung dieser fast schon als Standard anzusehenden RSA-Sicherheitssoftware kriminellen Elementen und auslaendischen Geheimagenten neue Optionen eroeffnet, ihre illegalen Aktivitaeten zu verbergen. So verlangt ein im Januar von dem demokratischen Senator Joseph R. Bidden als "counterterrorism bill" eingebrachter Gesetz- entwurf, die amerikanische Hard- und Softwareindustrie solle ihre Produkte so auslegen, dass fuer regierungsamtliche Ermittlungsbehoerden der Zugriff auf unverschluesselte Datenuebertragungen gewaehrleistet ist. Die RSA-Software entspricht diesen Anforderungen nicht. Ihre verbreitete Anwendung koennte auch den bereits 1987 eingeleiteten Bemuehungen des "National Institute of Standards" entgegenlaufen, in Zusammenarbeit mit der "National Security Agency" (NSA) verbindliche Standards fuer die Ausgestaltung und den Einsatz von Sicherheitssoftware vorzugeben. Ein solcher Standard sollte schon im letzten September verabschiedet werden, liegt allerdings bis heute nicht vor. Informierte Kreise gehen davon aus, dass die NSA Versuche zur Vereinbarung eines derartigen kommerziellen Standards torpediert. Der Grund - die Einfuehrung eines Sicherheitsstandards fuer Computersysteme verkompliziert, ebenso wie der sich z. Zt. immer weiter verbreitende Einsatz der RSA-Software, den Auftrag dieser Behoerde, im Verdachtsfall den Datenverkehr auslaendischer Regierungseinrichtungen zu ueberwachen und auszuwerten. "Die Leute werden nicht auf Standardisierungsentscheidungen der Regierung warten", so fasst Jim Bidzos, Vorstand von "RSA-Data", die gegenwaertige Situation zusammen. Es sei bereits zu spaet. Die Industrie habe ihre Entscheidungen bereits getroffen. Neues vom CSL am NIST --------------------- Das dem "National Institute of Standards" (NIST) beigeordnete "Computer Systems Laboratory" hat eine Publikationsliste veroeffentlicht, die einige interessante Forschungsberichte enthaelt, die u.a. fuer GMD-Projekte in den Bereichen "Organisationssysteme", "Mensch-Maschine Kommunikation", "Message Handling Systeme", "Open Systems Interconnection" und "Teletrust" von Interesse sein duerften. Die Publikationen im einzelnen: 1) Martha M. Gray and Gary E. Fisher "Functional Benchmarks for Fourth Generation Languages", NIST Spec. Pub 500-184, March 1991, SN 003-003-03071-6, $3,25 - Dieser Bericht beschreibt ein Verfahren, das bewertet, inwieweit eine Programmiersprache der 4. Generation" (4GL) organisatorischen, anwendungsorientierten und benutzerbezogenen Anforderungen entspricht. Beschrieben werden funktionale Benchmark-Tests im Rahmen eines umfassenden Evaluationsverfahrens. Nicht uninteressant sind Testbeschreibungen zur Evaluation der sog. "Organisationsschnittstelle". Die Testergebnisse sind mit benutzerdefinierten Gewichtungen versehen, die in die Gesamteinschaetzung evaluierter 4GL eingehen. 2) Elizabeth N. Fong, Charles L. Sheppard and Kathryn A. Harvill, "Guide to Design, Implementation and Management of Distributed Databases", NIST Spec. Pub. 500-185, Feb. 1991, SN 003-003- 03076-7, $3,50 - Dieser Leitfaden bietet praktische Hilfestellungen und identifiziert Anforderungen an Systemdesigner, Anwendungsentwickler und Datenbankadministratoren, die in Planung, Design, Installation und Wartung verteilter Datenbanken eingebracht werden koennen. 3) Tim Boland (ed.), "Working Implementation Agreements for Open Systems Interconnection Protocols - November 1990", NISTIR 4448, Nov. 1990, PB91-144444, $60 (Paper), $17 (Microfiche) - Diese Veroeffentlichung enthaelt die Proceedings des "NIST Workshop for Implementors of OSI", der im Sept. 1990 abgehalten wurde. Das Dokument listet die unter den Workshopteilnehmern erreichten Uebereinkuenfte ueber Details der Implementation von OSI- Protokollen auf. 4) Edward Roback, "U.S. Department of Commerce Methodology for Certifying Sensitive Computer Applications", NISTIR 4451, Nov. 1990. Diese Publikation beschreibt eine standardisierte Zertifizierungsmethode, die vom "U.S. Department of Commerce" angewendet wird, um sicherzustellen, dass behoerdliche Verwaltungs- und Planungssoftware vorgeschriebenen rechtlichen Regelungen und Standards entspricht. Der Leser wird schrittweise durch den gesamten Zertifizierungsprozess gefuehrt. Dabei wird beschrieben, wie die Revision von Verwaltungsdaten, verwaltungs- interne Kontrollroutinen und Risikoanalysen sich in das gesamte Zertifizierungsverfahren eingliedern. 5) Carol A. Edgar, "Message Handling Systems Interoperability Tests", NISTIR 4452, Oct. 1990, PB91-112789, $17 (Paper or Microfiche) - Dieses Dokument enthaelt eine Beschreibung des vom "OSINET Technical Committee" entwickelten "X.400 Interoperability Tests". OSINET ist ein regionales OSI-Netzwerk, das eingerichtet wurde, um OSI-Standards durch Aktivitaeten in Zusammenhang mit "Interoperability Tests" weiter abzusichern. 6) Edward Roback, "SRI International Improving the Security of Your Unix System", NISTIR 4453, Nov. 1990, PB91-120121, $17 (Paper or Microfiche) - Dieser Bericht enthaelt vielfaeltige Vorschlaege zur Verbesserung der Sicherheit von Softwaresystemen, die auf UNIX Betriebssystemen aufsetzen. 7) Judi Moline, Allen L. Hankinson and Lawrence A. Welsch, "Multimedia Courseware in an Open Systems Environment: A Federal Strategy", NISTIR 4484, Dec. 1990, PB91-143362, $17 (Paper), $8 (Microfiche) - Dieser Bericht diskutiert die Strategie der U.S. Bundesbehoerden, eine Anwendungsumgebung fuer hochwertige Multimedia-Verwaltungssoftware zu kreieren. Die im "Portable Courseware Project" des "Department of Defense" erarbeiteten Vorschlaege setzen auf standardisierten Softwareschnittstellen auf. Die ersten beiden Berichte sind erhaeltlich ueber den "Superintendent of Documents, U.S. Government Printing Office (GPO), Washington, DC 20402". Alle anderen Publikationen koennen angefordert werden ueber den "National Technical Information Service (NTIS), 5285 Port Royal Road, Springfield, VA 22161. Auf Wunsch ist die GMD-Aussenstelle Washington bei der Beschaffung behilflich. Neues vom Apple Geheimprojekt 'Pink' ------------------------------------ Es wird erwartet, dass Apple im naechsten Jahr einen neuen Rechner ausserhalb der Macintosh Reihe vorstellen wird. Unter dem Projektnamen "PINK" (wir berichteten bereits kurz in FITNUS 21-4) wird an einem Rechner mit RISC-CPU gearbeitet. Dabei stehen zur Zeit zwei Prozessoren in der engeren Wahl, der MIPS R4000 und der Motorola 88110. Beide Prozessoren sind allerdings noch in der Entwicklungsphase. Fuer den Rechner wird ein neues objektorientiertes Betriebssystem entwickelt. Damit ist die 1987 gegruendete "Object Systems Division" beschaeftigt. Zum Betriebssystem soll ferner ein "Interface Builder" (vergleichbar mit dem NextStep) gehoeren. Nicht zuletzt soll moeglichst viel Macintosh Software auf dem neuen Rechner laufen. Darueber hinaus soll es auch Moeglichkeiten geben, UNIX-Software zu fahren. (Meldung der GMD-Aussenstelle Berkeley) Vertrag zwischen Apple und IBM ------------------------------ Sah es noch letzte Woche Donnerstag so aus, als seien die Joint-Venture Verhandlungen zwischen Apple und IBM zum Scheitern verurteilt (wir berichteten in FITNUS26-2), so wurde die Fachwelt bereits diese Woche Mittwoch eines Besseren belehrt. Auf einer Pressekonferenz am 3. Juli teilten die Unternehmen mit, dass sie einen "letter of intent" ueber gemeinsame zukuenftige Software- und Hardwareentwicklungen unterzeichnet haetten. Ein endgueltiger Kooperationsvertrag soll noch in diesem Jahr unterzeichnet werden. Einzelheiten dieses insgesamt fuenf Punkte umfassenden Abkommens wurden jedoch schon vorab bekannt: 1) Apple und IBM gruenden ein gemeinsames Unternehmen zur Entwicklung eines neuen Betriebssystems. Apple und IBM werden dieses Betriebssystem fuer ihre Eigenentwicklungen nutzen und ebenfalls anderen Herstellern anbieten. 2) Beide Unternehmen werden Produkte entwickeln, die den Kommunikations- und Informationsaustausch zwischen Apple-Macintosh und IBM-PCs erleichtern Vergangenen Montag (24.7.) hat Apple eine neue Kommunikationssoftware vorgestellt, ueber die aus Macintosh-Netzen heraus auf IBM-Mainframes und PCs zugegriffen werden kann. Die Software aus der sog. SNA.ps Produktlinie, so Ed Forman, Marketing Manager bei Apple, sei ein weiterer Schritt in die Richtung, Inkompatibilitaeten zwischen der "IBM-Welt" und der "Macintosh-Welt" abzubauen. 3) Beide Unternehmen werden eine neue Version des IBM Unix-Betriebssystems AIX entwicklen, dass dann die Macintosh Benutzeroberflaeche und den Betrieb von Macintosh Programmen unterstuetzt. Sowohl IBM-Workstations als auch zukuenftige Apple-Rechner werden demnach in der Lage sein, Anwendungsprogramme, die fuer die jeweils andere Produktlinie entwickelt worden sind, zu betreiben. 4) Apple wird zukuenftige Macintosh-Versionen und neue Rechner-Linien mit einem IBM-Prozessor ausstatten. Motorola wird diesen Chip fuer Apple produzieren, ihn aber auch anderen Herstellern anbieten. Dabei handelt es sich zunaechst um den RS/6000 RISC-Prozessor, der in zukuenftigen Apple Macintosh-Rechnern verwendet werden soll. Da die gegenwaertige Version dieses Prozessors jedoch von Apple-Systemingenieuren als zu kompliziert erachtet wird, um darauf einen preisguenstigen "Low-end Computer" aufzusetzen (vgl FITNUS26-2) wurde vereinbart, dass IBM in Zusammenarbeit mit Motorola ein entsprechendes Redesign dieses Chips in Arbeit nimmt, der den entsprechenden Vermarktungsanspruechen von Apple eher gerecht wird. 5) Apple und IBM werden gemeinsam ihre Ansaetze im Bereich "Multimedia- Computing" vorantreiben. Die getroffenen Vereinbarungen werden in Fachkreisen auch als Versuch von Apple und IBM gewertet, sich weiter aus der hardwaretechnologischen Abhaengigkeit der Intel Corp bzw. der softwaretechnologischen Abhaengigkeit der Microsoft Corp. zu loesen. Intel liefert bislang die Prozessoren fuer die unterschiedlichen Versionen des Microsoft-Betriebssystems fuer IBM-PCs. Der Vorsitzende der Microsoft Corp., Gates, kommentierte die Vereinbarungen zwischen IBM und Apple mit den Saetzen - "Der ganze Handel macht keinen Sinn. Alles einzigartige an Apple ist in diesen "Deal" miteingebracht worden. Was bleibt uebrig? Apple hat sein Geburtsrecht verkauft. Das ist traurig." Ueber IBM, einst sein engster Verbuendeter, sagte Gates - "Sie fordern uns auf vielfaeltige Art und Weise heraus, das Joint-Venture mit Apple hat allerdings dazu gefuehrt, dass wir es, statt mit zwei Herausforderen, nunmehr nur noch mit einem zu tun haben." Nach Ankuendigung der zukuenftigen Zusammenarbeit zwischen Apple und IBM fielen die Kurse fuer Aktien der Microsoft Corp. vergangenen Mittwoch um mehr als $4; Die Kurse fuer Aktien der Intel Corp. blieben unveraendert. Pen-Based Computer auf dem Vormarsch ------------------------------------ Auf der "PC-Expo Trade Show", die am vergangenen Dienstag (25.7) in New York eroeffnet wurde, machte ein neuer, von der NCR Corp. vorgestellter "Pen-based Computer" Furore, der als erster Rechner dieses Typs auf dem Intel 386-Mikroprozessor aufsetzt. "Pen-based Computer" haben keine Tastatur. Eingaben werden mit Hilfe eines elektronischen Griffels auf einem Spezialdisplay vorgenommen, das in der Lage ist, handgeschriebene Symbole zu erkennen und zu verarbeiten. Experten rechnen damit, dass bis Ende des Jahres mindestens 15 weitere aehnliche Neuentwicklungen auf dem US-Computermarkt erscheinen werden. Andere "Pen-based Computer" werden bereits seit einiger Zeit vermarktet. Das wohl bekannteste, von der Tandy-Tochter "Grid Systems Corp." vertriebene "Gridpad-System" ist bereits mehr als 10.000 mal verkauft worden". Gekauft werden "Pen-based Computer" vornehmlich von Unternehmen, die mobile Aussendienste (z.B. "Wartungsdienste") unterhalten und ihre Aussendienstmitarbeiter mit derartigen Systemen ausruesten, um ihnen das Ausfuellen arbeitsspezifischer Formulare (z.B ueber ausgefuehrte Wartungsarbeiten) zu erleichtern. Gridpad basiert auf dem aelteren 8086-Prozessor; Grid System plant jedoch fuer 1992 ebenfalls die Einfuehrung eines 386-basierten Systems. In der Zwischenzeit soll das gegenwaertige Gridpad-System mit einem verbesserten Display und zusaetzlichem Speicherplatz ausgeruestet werden, um u.a. den Betrieb speicherintensiver Anwendungen zu ermoeglichen. Im Gegensatz zu dem neuen NCR-System, das sowohl handschriftliche Klein-, als auch Grossbuchstaben verarbeiten kann, erkennt Gridpad nur sorgfaeltig eingetragene Grossbuchstaben. Fachleute gehen davon aus, dass es noch einige Jahre dauern wird, bis "Pen-based Computer" normale Faksimile-Handschriften erkennen und verarbeiten koennen. Das neue NCR-System traegt die Bezeichnung NCR 3125, wiegt etwa 1,75 kg und kostet $4,765. Begrenzte Stueckzahlen werden ab August, groessere ab Oktober erhaeltlich sein. Potentielle Kaeufer werden sich mit Sicherheit jedoch zunaechst zurueckhalten. Die wichtigsten Betriebssysteme fuer 386-basierte "Pen-based Computer", "Windows for Pen Computing" von Microsoft und "Penpoint" von der Go Corporation werden fruehestens Ende des Jahres verfuegbar sein. Der NCR 3125 ist fuer beide Betriebssysteme ausgelegt. "3-Digit Bug" verantwortlich fuer Telefonnetzzusammenbrueche ------------------------------------------------------------ Drei fehlerhafte Binaercodes in der aeusserst umfangreichen Routing-Software von Vermittlungscomputern haben am 26. Juni den Zusammenbruch des Telefonsystems in Washington (DC), und den umliegenden Bundesstaaten Maryland, Virginia und West-Virginia verursacht (wir berichteten in FITNUS 26-1). Die fuer Erstellung und Wartung der Vermittlungssoftware zustaendige "DSC Communications Corp." in Plano (Texas) erklaerte, die "bugs" seien in geringfuegigen Softwareaenderungen enthalten gewesen, die das Unternehmen kurz zuvor an fuenf der insgesamt sieben regionalen US-Telefongesellschaften ausgeliefert habe. Wie nach dem 26. Juni bekannt wurde, sind im Gefolge des Zusammenbruches des Telefonsystems im Grossraum Washington auch die regionalen Netze in Pittsburgh, San Francisco und Los Angeles auf Grund des gleichen Fehlers zusammengebrochen. Der stellvertretende Vorsitzende der "DSC Communications Corp.", Frank Perpiglia gab zu, die geaenderte Software sei, wegen der Gerinfuegigkeit der Aenderungen, ohne umfangreiche vorherige "Debugging-Tests" an die regionalen Telefongesellschaften ausgeliefert worden. Er bekannte sich dazu, dass die entdeckten "3- Digit bugs" die Grundursache fuer die Systemzusammenbrueche gewesen seien, schloss jedoch nicht aus, dass weitere Ursachen entdeckt werden koennten, weil die Hard- und Software Ausstattung von Telefonnetzen, nicht zuletzt wegen Kombination entsprechender Systemkomponenten unterschiedlichster Hersteller, undurchschaubar geworden sei. Die von den Systemzusammenbruechen betroffenen regionalen Telefongesellschaften lassen die fehlerhafte Vermittlungssoftware durch von ihnen eingesetzten "Debugging Task-Forces" trotz der Eingestaendnisse Perpiglias z. Zt. noch weiter ueberpruefen. Derzeit werden in den Vermittlungszentralen spezielle, von DSC zur Verfuegung gestellte "Software-Patches" gefahren, fuer die der Hersteller die Garantie uebernimmt, dass sich zumindest die aufgetretenen Fehler nicht wiederholen werden. Die Diskussion darueber, ob die Zuverlaessigkeit maechtiger Softwaresysteme durch neuartige, mathematisch abgesicherte Testverfahren prinzipiell garantiert werden kann, oder ob zumindest kalkulierbare und daher schnell behebbare Fehler grundsaetzlich in Kauf genommen werden muesen, ist auf Grund dieser Vorkommnisse in den Informatikfachkreisen der USA erneut entbrannt. In einem kurzfristig zu dieser Problematik einberufenen Hearing des US-Kongresses, erklaerten die derzeit von mannigfaltigen Regressanspruechen ueberzogenen regionalen Telefongesellschaften, sie koennten die sog. "line-of-business" Endverantwortung fuer die Sicherheit der von ihnen betriebenen Systeme, die ihnen nach dem bekannten Zusammenbruch des "US Long-Distance Netzes" im Jahre 1984 auferlegt worden ist, nicht mehr uebernehmen. Ein Grund dafuer sei, dass sie keine Kontrollmoeglichekeiten ueber Design und Herstellung der einzelnen Hard- und Softwarekomponenten des Gesamtsystems haetten. Der Kongress erwaegt in diesem Zusammenhang eine Gesetzesnovellierung, die entsprechende Auflagen fuer die regionalen Telefongesellschaften abmildern soll. Die "US-Federal Communications Commission" (FCC) hat letzten Dienstag beschlossen, eine spezielle Forschungssgruppe fuer "Network Reliability" einzusetzen und Berichtspflichten ueber zukuenftige "Netzwerk-Blackouts" zu formalisieren. Der FCC- Vorsitzende Alfred Sikes gab dennoch seiner Ueberzeugung Ausdruck, dass "die gegenwaertigen Probleme aller Wahrscheinlichkeit nach eher unbedeutende Nebeneffekte sich fortsetzender Systemverbesserungen als Indikatoren fuer fundamentale, unvermeidbare Fehler" seien. Die FCC habe "weiterhin volles Vertrauen in die Stabilitaet des oeffentlichen Telefonnetzes." 21 MB Disketten im kommen ------------------------- Seit etwa 10 Jahren gibt es Floppy Disks (3,5 Zoll) mit einer Kapazitaet von mehr als 20 MB. Sie werden auch als 'floptical Disks' bezeichnet, da Komponenten verwendet werden, die fuer optische Datenspeicherung entwickelt wurden. Schon vor drei Jahren berichteten wir ueber ein Produkt der Firma Brier. Von japanischen Herstellern (Citizen, Nec, Matsushita) gab es aehnliche Produkte. Bis jetzt konnte sich dabei allerdings noch kein Standard oder Produkt durchsetzen. Hersteller von floptical-Laufwerken haben sich nun in der 'Floptical Technology Association' zusammengeschlossen, um einen Standard zu erreichen. Hitachi, Maxell und 3M sind als Hersteller von Speichermedien vertreten. Auf jeden Fall sollen die neuen Laufwerke auch Disketten mit einer Kapazitaet von 720 KB und 1,4 MB verarbeiten koennen. Einen weiteren Schub haben 'floptical Disks' dadurch bekomman, dass 5 amerikanische Hersteller nunmehr SCSI-kompatible Adapter fuer ein 21 MB Laufwerk, das von Insite Peripherals entwickelt wurde, anbieten wollen. Es wird damit gerechnet, dass mit der Verbreitung von Unix, OS/2 und MS-Windows Diskettenkapazitaeten benoetigt werden, die ueber den jetzt vorhandenen Standard von 1,4 MB hinaus gehen. Auch die seit kurzem von IBM angebotene 2,8 MB Disk scheint nicht ausreichend zu sein und wird nur als eine Zwischenloesung betrachtet. (Bericht der GMD-Aussenstelle Berkeley) Multimedia Grossexperiment im Holocaust Gedenkmuseum ---------------------------------------------------- Der bislang wohl umfassendste Einsatz von Multimedia-Computertechnologie ist in Zusammenhang mit dem geplanten "Holcaust-Gedenkmuseum" in Washington, DC vorgesehen. Das Museum soll 1993 eroeffnet werden. Fuer das diesem Museum anzugliedernde sog. "Learning Center" haben sich die Museumsplaner fuer den Einsatz von insgesamt 60 Multimedia-Workstation entschieden. Das die Planungen beaufsichtigende "United States Holocaust Memorial Council" haelt Multimedia-Technologien aus didaktischen Gruenden fuer das beste Mittel, um insbesondere Jugendlichen, die als besonders technikempfaenglich gelten, den geschichtlichen Zugang zur Nazi-Vergangenheit zu eroeffnen. Letzte Woche stellten Systemingenieure in Washington einen Prototypen des einzusetzenden Systems der Oeffentlichkeit vor. Nicht zuletzt um einem, mit Blick auf die anvisierte jugendliche Zielgruppe auch befuerchteten, rein technikzentrierten "Hackertum" vorzubeugen, verfuegen die geplanten Multimedia-Stationen ueber keine Tastaturen. Stattdessen reagieren Sie auf "Touch-Screen Eingaben", die dem Museumsbesucher ueber Hypertextsysteme umfangreiche Recherchen in den angebundenen Multimediadatenbanken erlauben. Informationstheoretiker sehen in dieser Vorgehensweise u.a. deshalb den Schluessel zum didaktischen Erfolg, weil der Benutzer - im Gegensatz zur passiven Rezeption vorgefertigter Geschichtsrepraesentationen - aktiv in den Informationsprozess miteinbezogen wird, weil er Art und Menge des dargebotenen Lehrmaterials seiner individuellen Interessenlage und Aufnahmebereitschaft anpassen kann. Wird beispielsweise lediglich der Vorname von Raoul Wallenerg, einem schwedischen Diplomaten, der 1944 in Budapest mehrere tausend Juden rettete, ausgewaehlt, so generiert das System eine entsprechende Kurzbiographie. Durch weitere Auswahl in dieser Biographie enthaltener Symbole und Schluesselwoerter kann dann auf historische Photos, Faksimile- Dokumente oder Video-Interviews von Zeitzeugen Wallenbergs zugeriffen werden. "Die unterliegende Systemphilosophie", so erlaeuterte Systemdesigner Yeachim Halevy, "ist die Vermeidung erzwungener, vorformatierter Mensch-Maschine Dialoge. Dem Benutzer soll jederzeit der gesamte, multimedial ausgelegte Datenbestand in einem ausgewaehlten Kontext zur Verfuegung stehen." Um dies zu gewaehrleisten muss die Entwicklungsgruppe um Halevy bis 1993 sechs umfangreiche Datenbanken mit den digitalisierten Informationen von insgesamt 50 Stunden Videos, 500 Landkarten, einer on-line Enzyklopaedie, mehreren tausend Photos, ueber hundert Musikstuecken und eine Holocaust- Chronologie im Tagesablauf synchronisieren. US-Telekomindustrie nicht in Ost-Deutschland -------------------------------------------- Als im letzten Jahr bekannt wurde, dass die deutsche Bundesregierung umgerechnet insgesamt $38 Mrd. an Investitionsmitteln fuer die Modernisierung des Telekommunikationssystems in den fuenf neuen oestlichen Bundeslaendern ausgeben will, erhoffte sich die US-Telekommunikationsindustrie lukrative Beteiligungsangebote. Ein Branchensprecher - "Das Modernisierungsvorhaben versprach eines der umfassendsten und teuersten in der Technologiegeschichte des Telefons und der Telekommunikationssysteme zu werden." Ein Jahr spaeter, nachdem etwa ein Dutzend einschlaegige US-Auftraege unter Dach und Fach gebracht worden sind, beklagen amerikanische Anbieter, trotz gegenteiliger Beteuerungen der deutschen Bundesregierung, dass lukrative Grossauftraege bislang ausgeblieben sind. Dies veranlasste den amerikanischen Handelsminister Peter Mosbacher bereits im Fruehjahr, die Deutschen an ihr Versprechen zu erinnern, zumindest einige Mio. US-$ fuer Netzwerk- modernisierungen an US-Firmen zu vergeben. Vor etwa zwei Monaten begleiteten Firmenvertreter von elf Telekommunikationsunternehmen - darunter AT&T, GTE Spacenet, und fuenf regionale Telefongesellschaften - Beamte des "Department of Commerce" (DoC) auf einer Handelsmission nach Deutschland. Die Botschaft, die sie wieder mit nach Hause brachten war unmissverstaendlich. Die deutsche Bundesregierung beginge politischen Selbstmord, vergaebe sie entsprechende Modernisierungsauftraege nicht vornehmlich an die heimische Industrie, wie z.B. Siemens, um auf diese Weise die aufgewendeten Steuermittel zur Staerkung der eigenen Volkswirtschaft zu verwenden. So ganz nebenbei sei der amerikanischen Delegation mitgeteilt worden, das deutsche Telefonsystem wuerde ohnehin nur von den Deutschen vollstaendig durchschaut. Allein aus schon aus diesem Grund seien deutsche Techniker fuer die auszufuehrenden Modernisierungsmassnahmen besser qualifiziert. Dieses Argument, so Miles Denny-Brown, ein DoC-Koordinator fuer den US-Aussenhandel, sei von den Deutschen schon wiederholt vorgebracht worden, um sich der amerikanischen Konkurrenz zu erweheren. Und weiter - "Erst machen sie all diese Versprechungen und dann drehen sie sich um und vergeben die wichtigsten Auftraege an die heimische Industrie." Die Branchenvereinigung "North American Telecommunications Association" prognostiziert, dass der deutsche Telekommunikationsmarkt - mit derzeit $6,8 Mrd. der viertgroesste der Welt - bis 1995 auf ueber $12 Mrd. Jahresumsatz ansteigen wird. Damit wuerden noch die entsprechende Steigerungssaetze in Japan ueberholt, und die Bundesrepublik naehme den zweiten Platz hinter den USA ein. Was den Endgeraetemarkt auf dem Telekommunikationssektor angeht, so stellen die Amerikaner den Deutschen gute Noten fuer ihre Aussenhandelspolitik aus. Der entsprechende US-Export in die Bundesrepublik stieg innerhalb der Jahresfrist 1989-1990 von $138 Mio. auf $355 Mio. - eine direkte Folge der bekannten Deregulationspolitik der Bundesregierung. Die amerikanische Aussenhandlesbilanz auf dem deutsch-amerikanischen Telekommunikationsmarkt verzeichnete im gleichen Zeitraum einen Anstieg von 158%, ein Gesamt- ueberschuss vo $251 Mio. Das DoC bringt vor allem den Export von "business equipment", insbesondere "voice-processing devices", ein Technologie, mit der amerikanische Unternehmen besonders konkurrenzfaehig seien, mit diesem Zuwachs in Zusammenhang. Die besten Aussichten fuer einen Einstieg in den deutschen Markt rechnen sich amerikanische Telekommunikationsunternehmen bei der Einfuehrung drahtloser Kommunikationssysteme, z.B. "Cellular Phones", und satteliten- gestuetzter Datenuebertragungssysteme aus. "GTE Spacenet" bietet bereits sattelitengestuetzte Datenuebertragungsdienste ueber die Deutsche Bundespost TELEKOM an und "Pacific Telesis" verfuegt ueber 35% der Unternehmensanteile eines der beiden "Cellular-Phone Franchiser" in den neuen Bundeslaendern. Reklamiert wird von den amerikanischen Unternehmen jedoch, dass die Deutsche Bundespost TELEKOM nach wie vor den gesamten Telekommunikationssektor kontrolliert, und dass die Bundesregierung sich - im Rahmen ihrere Deregulationspolitik - bis 1997 die Option offenhaelt, privaten Telekommunikationsanbietern entsprechende Lizenzen wieder zu entziehen. ADA und DOD - Scheidung wegen C++ ? ----------------------------------- Das 'Information Technology Policy Board" des "Department of Defense" (DoD) hat die Programmiersprachen ADA und C++ einer vergleichenden Evaluation unterzogen. Der Auftrag dafuer war von Paul Strassmann, dem neuen Direktor der Abteilung fuer "Defense Information" des DoD mit der Zielvorgabe erteilt worden, Empfehlungen auszusprechen, ob nicht bestimmte Systementwicklungen des DoD, statt wie bisher auf ADA, auf C++ basiert werden sollten. Die Studie wurde von Lloyd K. Mosemann, dem "Deputy Assistant Secretary for Communications, Computers and Logistics" der US-Air Force koordiniert und enthaelt vergleichende Bewertungen von fuenf voneinander unabhaengigen Software- experten. Zusammengefasst bekraeftigen die Evaluationsergebnisse die Bevorzugung von ADA fuer einschlaegige DoD-Projekte. "Es gibt mehr als genug Gruende fuer das DoD", so Mosemann, "auch weiterhin auf ADA zu bauen und keine ueberzeugenden Gruende zu Gunsten von C++ auf ADA zu verzichten." Dennoch zieht die Evaluationsstudie in Zweifel, ob grundsaetzlich fuer jedes Softwareprojekt des DoD ADA C++ vorzuziehen sei. So validierten Softwareexperten im Rahmen der Studie verschiedene, auf die Dimensionen "Reliability", "Reusability" und "Portability" abzielende Testitems einer sog. "Software-Engineering Wunschliste". Die ueber dieses Testverfahren ermittelte Gesamtbewertung von ADA lag um 23% ueber der von C++. Diese Vorteile von ADA, so die Experten, verfluechtigten sich jedoch, beziehe man die Evaluationsdimensionen "Entwicklungskosten" und "Wartungskosten" fuer ein typisches, entwicklungsintensives Softwaresystem mit ein. Das DoD, so eine der aus diesen Befunden abgeleiteten Empfehlungen, solle bis 1993 auf der Anwendung von ADA in allen neu aufzulegenden Entwicklungsprojekten bestehen. Fuer bereits existierende, in C geschriebene Systemsoftware sollten jedoch entsprechende C++ Konversionen ebenfalls akzeptiert werden. Spaetestens 1995 sollten die dann zur Verfuegung stehenden Spracherweiterungen von ADA und C++ erneut evaluiert werden. Wenn die entsprechenden Evaluationsergebnisse dann um nicht mehr als 20% voneinander abweichen, solle das DoD C++ offiziell als zweite, mit ADA gleichrangige Sprache fuer die Entwicklung von Systemsoftware einsetzen. Eine weitere Expertise favorisierte die Fehlerfrueherkennungsoptionen und die daraus resultierende Programmiersicherheit von ADA, pries jedoch auch die zunehmende Popularitaet von C++, den in dieser Sprache durch den Zugriff auf Klassenbibliotheken angelegten "reuse support" und die unkomplizierte Schnittstelle zu in C geschriebener Software. Als Unterstuetzung fuer ADA wurde in einer anderen Bewertung angefuehrt, weitaus mehr amerikanische Unternehmen wendeten validierte ADA-Compiler anstelle von C++-Compilern an. Im Gegensatz zu C++ treffe ADA auf eine weitverbreitete Mainframeunterstuetzung. Der Kostenaspekt ist nachteilig fuer ADA. In diesem Zusammenhang wird jedoch darauf verwiesen, dass die - verglichen mit herkoemmlichen C++-Programmen - hoehere Kostenintensitaet einer Systemprogrammierung in ADA wohl vornehmlich auf die besonderen Anforderungen an die Softwaredokumentation und die Systemsicherheit in einschlaegigen Entwicklungsprojekten des DoD zurueckgefuehrt werden muessen. Es wird erwartet, dass Auftraggeber Strassmann Ende dieses Monats allen Programmiereinheiten des DoD ein aus der Evaluationsstudie abgeleitetes Memorandum zuleitet. Tenor dieses Memorandums laut Studienkoordinator Mosemann - Mit Ausnahme der Projekte, die ausschliesslich gekaufte Software einsetzen, werden eigene Systementwicklungsprojekte des DoD weiterhin auf ADA abgestellt. Neue Apple-Modelle im Oktober '91 --------------------------------- Apple plant fuer den Oktober 1991 die Einfuehrung insgesamt sechs neuer Modelle, um insbesondere den High-End-Bereich und den Markt der Portables anzugreifen. Es ist geplant, insgesamt drei Notebook-Modelle im Preisbereich von $ 2000 bis $ 4000 anzubieten. Die guenstigste Alternative wird von Sony produziert, die anderen beiden Modelle sollen auf Motorolas 68030-Chip basieren. Ein moegliches Problem koennte allerdings sein, dass das leichteste Notebook-Modell voraussichtlich immer noch ueber 5 (amerikanische) Pfund wiegen wird; ein Bereich, in dem die Konkurrenz die Nase vorn hat. Wuerden die Apple-Notebooks nicht besonders einschlagen, koennte dies eine persoenliche Niederlage fuer Apple-Chef John Sculley werden; der hatte naemlich letztes Jahr persoenlich die Produktentwicklung der Portables in die Hand genommen, nachdem sich ein Erfolg nicht einstellen wollte. Im High-End-Bereich ist es geplant, zwei Modelle auf der Basis des 68040-Chips herauszubringen. Auch der MacClassic soll schneller werden: neben dem 68000er-Modell soll ein weiteres Modell mit dem 68030-Chip ausgeruestet werden und dann etwa $ 2000 kosten. Sun-Betriebssystem fuer 80386/80486 ----------------------------------- Als Antwort auf das ACE-Konsortium und die neue Allianz zwischen Apple und IBM hat SUN angekuendigt, unter der Bezeichnung Solaris, eine neue Version des Sun-Betriebssystems zu entwickeln, die auch auf Intel 386/486-basierten Rechnern laufen soll. Die Hauptzielgruppe dabei sind i486-Systeme. Man geht davon aus, dass bis zum Jahresende ca. 420.000 Sparc-Workstations und 770.000 i486-Systeme installiert sind. Ein Betriebssystem, dass auf beiden Rechnerfamilien laeuft, koennte die Basis fuer SUN-Software erheblich vergroessern. Offensichtlich rechnet man bei SUN damit, dass der dadurch erreichte Vorteil groesser ist als die Gefahr, dass durch diesen Schachzug i486-Systeme in den SUN-Workstationmarkt einbrechen koennten. Das Betriebssystem soll in der ersten Haelfte des kommenden Jahres verfuegbar sein. In jedem Fall bestaetigen die Entwicklungen bei SUN, ACE und IBM/Apple die Einschaetzung, dass der Workstation-Markt und der High-End-Bereich des PC-Marktes aufeinander zusteuern. (Bericht der GMD-Aussenstelle Berkeley) Vermarktung neuer IBM-Workstations verzoegert sich -------------------------------------------------- Die urspruenglich fuer naechsten Monat angekuendigte Vorstellung einer neuen IBM-Worksatation mit "Single-Chip Risc-Architektur" verzoegert sich mindestens bis zum Jahresbeginn 1992. Der Vermarktungsaufschub dieser mit einem Preis von unter $10.000 kalkulierten Maschine macht IBM im "low-end Bereich" des heiss umkaempften Workstation-Markt weiterhin verwundbar. Einige IBM in Aussicht gestellte Grosskundenauftraege, die die Verfuegbarkeit einer preisguensteigen Workstation zur Voraussetzung haben, erscheinen gefaehrdet. Der Chef der IBM Workstation-Branche, Bill Filip, gab an, IBM habe Probleme mit der Zeittaktsynchronisation des fuer die avisierte Maschine vorgesehenen I/O-Chips gehabt, der den Datenverkehr mit dem Zentralprozessor regelt. Das Problem sei mittlerweile geloest; dennoch saehe sich IBM nicht in der Lage noch in diesem Jahr mehr als ein halbes Dutzend Testmaschinen zu produzieren. Energisch bestritt Filip, die Verzoegerung sei auf Probleme zurueckzufuehren, den 7-Chip-Prozessor der IBM RS/6000 Workstation auf eine Single-Chip Version zu reduzieren. Diese "Single-Chip Risc-Architektur" ist eine der von IBM einzubringenden Hauptvoraussetzungen fuer das diesen Sommer ausgehandelte IBM/Apple Joint-Venture. (FITNUS 39-3) Quelle: FITNUS (Fachinformations- & Informationstechnologie Nachrichten aus den USA; Redaktion: GMD-Aussenstelle Washington Aus den Ausgaben 23, 24, 27, 28, 29, 31, 32, 34 ------------------------------------------------------------------------------ |
[Contrib]
[Chalisti]
[16]
Neues aus den USA