Mittwoch, 29. Februar 2012

Spezifikation und Abstraktion in Informatik und Quantenphysik

Spezifizieren und abstrahieren sind fachliche Tätigkeiten, die im Berufsalltag eines Informatikers nicht wegzudenken sind. Es ist fast vergleichbar mit dem Blutdruck- und Fiebermessen des Arztes. Spezifizieren heißt laut Fremdwörter-Duden ‚einzeln aufzählen‘ oder ‚zergliedern‘. Abstrahieren heißt nach derselben Quelle ‚gedanklich verallgemeinern‘ oder ‚auf etwas verzichten‘.

Hans Diel, einer meiner Freunde, der sich viel mit physikalischen Fragen beschäftigt, fragte dieser Tage, ob ich ihm aus der Sicht der Informatik Tipps geben könnte, wie man Prozesse am besten beschreibt. Am liebsten hätte ich gekniffen, aber ich traute mich nicht. Ich fühlte mich professionell herausgefordert. Hier ist die Essenz eines etwa halbstündigen Telefonats.

Ich begann mit der Allerweltsantwort, die eigentlich eine Gegenfrage ist: Es kommt darauf an, was man beschreiben will und was man weiß. Obwohl mein Gesprächspartner alles andere als ein Laie ist, versuchte ich die Materie auf einige grundsätzliche Dinge zu reduzieren. Deshalb argumentierte ich ungefähr so, wie ich es auch einem Laien gegenüber täte.

Will man beschreiben, wie etwas passiert, dann beschreibt man die einzelnen Schritte der Reihe nach. Da nicht immer alles in gleicher Weise abläuft, gibt es Fallunterscheidungen. Für Dinge, die sich wiederholen, benutzt man Schleifen. Mehr braucht man nicht. Mag man Schleifen nicht, kann man das Ganze auch rekursiv beschreiben. Das ist aber schon fast eine Spielerei für Mathematik-Freaks. Für das Ganze benutzt man am besten eine Notation, die einer Programmiersprache ähnelt. Will man vermeiden, dass Leute einen gleich auf eine bestimmte Syntax festnageln, nennt man das Ganze Pseudocode. Wichtig ist, dass man hierarchisch vorgeht. Man sollte immer versuchen, zuerst den ganzen Prozess auf einer DIN-A4-Seite zu beschreiben. Für einzelne Unterprozesse benutzt man andere Blätter. Große wandfüllende Tapeten sind nicht mehr beliebt. Sie beweisen nur, dass die Beschreibung noch nicht gut strukturiert ist.

Dieses Verfahren kann man benutzen, um Abläufe jeder Art zu beschreiben, egal ob es um den Tagesablauf oder den Lebensablauf eines Menschen geht, oder den Start und die Landung eines Flugkörpers, sei es eine Rakete, Drohne oder Flugzeug. Auch für Herzoperationen und die Hochofensteuerung geht das, selbst für den Atomzerfall oder das Doppelspalt-Experiment. Wir nennen dies auch Algorithmen.

Beim Spezifizieren müssen Informatiker noch dazu sagen, ob sie von Prozessen oder Systemen reden, die sie erst planen oder ob sie ein fertiges System meinen. Im ersten Fall ist es eine Soll-Spezifikation, im andern Fall eine Ist-Spezifikation. Programme werden oft als mathematische Funktionen betrachtet, d.h. als Abbildungen zweier Mengen aufeinander oder als Relation zweier Mengen, wobei die Eingabewerte eindeutig sein müssen (linkseindeutig). Das passt aber nicht immer. Endlos sind schließlich die Diskussionen darüber, welche Datentypen und logische Operatoren man braucht, um eine gute Spezifikationssprache zu haben. Wie ein Konditormeister den andern überbietet, so gibt es in der Informatik einen nicht enden wollenden Wettbewerb um den besten ‚syntaktischen Zucker‘.

Jetzt waren wir da, wo Hans Diel hin wollte. In der Quantenphysik – so erläuterte er  kennt man nur ausgewählte Zustände, für die es statistische Aussagen bezüglich ihrer Häufigkeit, ihres Energieverbrauchs usw. gibt. Man kann nicht sagen, dass Zustand B zwingend aus Zustand A folgt. Man kann bestenfalls Formeln angeben, die eine Relation zwischen bestimmten Anfangs- und bestimmten Endwerten festlegt.

Ich erklärte, dass dies die Informatik auch kennt. Man nennt dies nicht-determiistische Prozesse. Hier hilft – so weit ich weiß eine axiomatische Spezifikation. Das ist eine Form von Abstraktion. Da werden nur die Beziehungen oder Relationen angegeben, die zwischen Ein- und Ausgabewerten existieren, egal wie man dahinkommt. Als Soll-Spezifikation, also Vorgabe, ist dies oft ausreichend, und zwar immer dann, wenn die Laufzeit oder der Energieverbrauch keine Rolle spielen. Die ganzen Details, wie etwas tatsächlich geschieht, werden ausgeblendet. Man sieht den Prozess, so zu sagen, durch eine Verkleinerungsbrille.

Um die Tatsache zu beleuchten, dass es sich bei der axiomatischen Beschreibung um eine Abstraktion handelt, erwähnte ich noch als Beispiel den Prozess meines Lebens. Wählt man je ein Wertepaar aus der Vielzahl der den Prozess charakterisierenden Größen, so ergibt das eine sehr abstrakte Prozessbeschreibung, und zwar bezogen auf verschiedene Abschnitte des Prozesses.


Wer behauptet, dass mit diesen Vor- und Nachbedingungen ein menschliches Leben auch nicht annähernd beschrieben ist, befindet sich in guter Gesellschaft. Er darf allerdings nicht vergessen, dass bei der axiomatischen Methode die Gefahr groß ist, so zu tun, als wäre dies der Fall.

Eingeführt wurde die axiomatische Methode in der Informatik von dem Engländer Tony Hoare. In seiner Veröffentlichung eines Beispiels, eines Sortierprogramms, wird er ein Opfer dieser Selbsttäuschung. Statt einer vollständigen Spezifikation des gewünschten Prozesses gab er eine schwächere Spezifikation an, nicht das exakte Ergebnis, sondern nur eine Eigenschaft. Die exakte Angabe wäre etwas schwieriger formal darzustellen. Das Ergebnis des Sortierens – so sagte er ist eine Folge von Zahlen, bei denen xn kleiner oder gleich xn+1 ist. Das ist auch eine Folge von lauter Nullen oder Einsen. Hoare hatte vergessen (oder vermieden) zu sagen, dass die Ausgabe des Programms eine Permutation der Eingabe sein muss. Einem Praktiker stößt dabei die Erinnerung an viele Programme auf, die denen diese Art von Programmfehlern – konstante statt variable Ausgabewerte vorkommt, besonders bei Anfängern. Dieses Hoaresche Beispiel wurde inzwischen in Lehrbüchern, Vorlesungen und Vorträgen bestimmt hunderte Mal zitiert, ohne auf den Fehler hinzuweisen.

Nachbemerkung: Zu Hoares Ehrenrettung möchte ich ergänzen, dass er sich dieser Einschränkung vollends bewusst war. Quelle. CACM 13,12 (1970)

Natürlich lassen sich mit der axiomatischen Methode aber auch Aussagen formulieren, die sonst sehr schwer in den Griff zu bekommen sind. Insofern ergänzen sich die Ansätze. Vor allem aber kann diese Methode verwandt werden, wenn zwar die Ergebnisse eines Prozesses bekannt sind, nicht aber die Einzelschritte, die dahinführen, also der Algorithmus.


Soweit meine Telefonauskunft. An dieser Stelle lasse ich meinen Freund zu Wort kommen mit dem Beispiel aus der Quantenphysik.

Am 28.2.2012 schrieb Hans Diel aus Sindelfingen:

Um es zunächst allgemein und abstrakt zu formulieren: Ich behaupte, dass die axiomatische Beschreibung, die in der Physik allgemein beliebt und üblich ist, bei der Quantenphysik kaschiert, dass man weniger spezifiziert, (weil man weniger weiß) als man eigentlich spezifizieren sollte. Man könnte auch behaupten, dass die Quantenphysik unvollständig ist. Einstein hätte einer solchen Feststellung begeistert zugestimmt. Allerdings sah Einstein die Unvollständigkeit der Quantenphysik an anderer Stelle als ich das hier tue. Außerdem mag ich die Behauptung der Unvollständigkeit der Quantenphysik nicht. Je nachdem welche Maßstäbe man anlegt, kann man vermutlich jede Theorie als unvollständig bezeichnen.

Mein (milder) Vorwurf an die Quantenphysik ist auch nicht, dass hier etwas fehlt zur Vollständigkeit, sondern, dass man dieses, in einer übertrieben positivistischen Haltung, als gottgegeben (oder naturgegeben) ansieht.

Ich behaupte im Weiteren, dass dieses Kaschieren der "Unvollständigkeit" nur durch die Fokussierung auf die axiomatische Beschreibungsmethode möglich wurde. Sobald man den Versuch macht das Thema prozessbasiert (=prozedural) zu beschreiben wird schnell klar, dass es in der Quantenphysik einige ungelöste Probleme gibt.

Jetzt konkreter: Die Quantenphysik ist, wie jedermann weiß, nicht-deterministisch. Die zukünftige Entwicklung wird nur mit gewissen Wahrscheinlichkeiten vorhergesagt. Dieses Unvermögen genauere (=deterministische) Vorhersagen zu machen ist jedoch nicht die von mir beklagte Unvollständigkeit. Dies haben andere (anscheinend) zu Unrecht moniert.

Mir geht es um Folgendes: Auch die nicht-deterministischen Vorhersagen folgen gewissen Gesetzmäßigkeiten. Um es bildlich auszudrücken, bei einer Messung wird gewürfelt. Der dazu benutzte Würfel macht jedoch vor der Messung eine gewisse Entwicklung mit. Je nachdem wie die Anordnung des Experimentes ist, hat mein Würfel am Schluss 4, 6, oder n Seiten mit unterschiedlicher Schlagseite.  Die Quantenphysik hat eine sehr mächtige Theorie mit vielen Formeln (= Axiomen), um die Eigenschaften des Würfels zum Zeitpunkt der Messung vorherzusagen. Sie sagt aber wenig über die Entwicklung des Würfel vom Zeitpunkt t0 bis zum Zeitpunkt t1 (mit oder ohne Messung) aus.

Der von mir beschriebene Würfel heißt in der Quantenphysik "Wellenfunktion". Schrödinger hat eine schöne Differentialgleichung zur zeitlichen Entwicklung der Wellenfunktion gefunden. Diese ist jedoch nicht geeignet, um Interaktionen zwischen Teilchen zu beschreiben. Diese Lücke haben Feynman und andere mit der Quantenfeldtheorie geschlossen. Die Quantenfeldtheorie ist jedoch axiomatisch. Sie lässt keine Abfolge von Entwicklungsschritten erkennen. Weder die ursprüngliche Schrödinger-Gleichung, noch die Quantenfeldtheorie, geben einen Hinweis darauf was bei der Messung geschieht.

All die von mir hier beschriebenen Probleme sind natürlich den Physikern längst bekannt. Sie werden von den verschiedenen Physikern in unterschiedlichem Grad als Probleme eingeordnet. Meine Einordnung ist subjektive.  Nicht subjektiv, sondern objektiv, ist jedoch (behaupte ich) meine Feststellung, dass der Versuch ein Prozess-Model der Quantenfeldtheorie zu erstellen die besprochenen Mängel deutlicher erkennen lässt.

Zurück zur allgemeinen Betrachtung von Beschreibungsmethoden: Die axiomatische Beschreibung tendiert dazu, eher weniger Detail zu spezifizieren (sie ist abstrakter). Der Mangel an Detail kann aus unterschiedlichen Gründen beabsichtigt sein . Er kann auch zwangsläufig sein, weil man einfach nicht mehr weiß. Ich meine jedoch, in der Physik sollte es nicht dazu führen, dass man die Unkenntnis gar nicht erkennt, bzw. nicht wahrhaben will.

Wie geht es weiter? Das frage ich die Leser. Vielleicht sind unter den Lesern auch bessere Experten als ich, was Spezifikationsmethoden oder mathematische und logische Beschreibungsverfahren betrifft. Vielleicht kann uns auch ein Physiker im Verständnis der Quantenphysik weiterhelfen.

Freitag, 24. Februar 2012

Selbstzweifel der Physiker

Nach Lee Smolin und Bob Laughlin werden immer mehr Physiker von Selbstzweifeln befallen. Ganz zu schweigen von Alexander Unzickers Unflätigkeiten. Das ist hart für das Fachgebiet, dass einst als die Naturwissenschaft ‚par excellence‘ galt, die das Wesen der Dinge und die Welt erklärt. Es ist nicht Schadenfreude, die mich verleitet, wiederholt darauf hinzuweisen, sondern die Sorge, dass eigentlich kein Fachgebiet gegen derartige Phasen der Unsicherheit gefeit ist. Nach der Physik kann es die Biologie treffen oder die Medizin, aber auch die Mathematik und die Ingenieurwissenschaften. Damit sind wir bereits in der Nachbarschaft oder gar im Terrain der Informatik angelangt.

Die Zeitschrift ‚Spektrum der Wissenschaft` brachte im Februar-Heft 2012 einen Beitrag mit dem Titel: ‚Die Physik – ein baufälliger Turm von Babel‘ Er stammt von Tony Rothman, einem theoretischen Physiker der Universität Princeton

Ich empfehle jedem Naturwissenschaftler und Ingenieur die sechs Seiten zu lesen. Er wird sich unwillkürlich fragen, welche Annahmen liegen eigentlich meinem Fach zugrunde. Sind sie grundsätzlich anderer Natur als das, was Physiker glauben. Sie haben sich nicht verlesen: Die Physik ist in weiten Teilen eine Sache des Glaubens geworden, also des Fürwahrhaltens von Dingen, die nicht selbstverständlich oder beweisbar sind.

Um Sie nicht länger auf die Folter zu spannen, greife ich einige Zitate aus dem Artikel heraus. Es sind nur wenige.

Das vermeintlich stabile Bauwerk [der Physik]… sieht aus wie eine moderne Version von Pieter Bruegels Turm zu Babel – eine heruntergekommene Struktur aus isolierten Modellen, die durch schiefe Erklärungen notdürftig miteinander verbunden sind, kurz eine Monstrosität, die himmelwärts taumelt.

Die Unvereinbarkeit des zweiten Hauptsatzes [der Thermodynamik] mit andern grundlegenden Theorien der Physik bleibt vielleicht das größte Paradoxon der gesamten Disziplin.

Der Glaube, dass Gott ein Mathematiker ist, dürfte eher das Ergebnis selektiver Wahrnehmung sein… Denn nur verschwindend wenige physikalische Probleme besitzen exakte Lösungen.

Einstein drückte das…so aus: ‘Insofern sich die Sätze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher, und insofern sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit‘.

Denn wenn das Elektron endlichen Radius besitzt, …dann müsste es an seiner Peripherie mit Überlichtgeschwindigkeit rotieren.

Das am häufigsten benutzte Verfahren [um den Doppelspalt-Versuch zu erklären] vermeidet nicht nur den Kern des Problems, sondern ist auch noch mathematisch inkonsistent.

Sicher sind die Physiker bei der Beschreibung der Natur weiter vorangekommen als die Vertreter anderer Wissenschaften. Mit Verständnis sollte man dies aber nicht verwechseln.

Das klingt alles sehr nach Ernüchterung. Es gibt Anlass zur Hoffnung. Die Online-Diskussion auf dem Server der Zeitschrift gibt dem Autor weitgehend Recht. Befremdend ist allerdings der Hinweis eines deutschen Physikers, dass der deutsche Physikunterricht so viel besser sei als der amerikanische, so dass Schüler und Studenten bei uns keinen Grund zum Zweifeln und Klagen haben.

Überrascht bin ich immer wieder, wenn Zitate von Albert Einstein erscheinen, die mir bisher nicht bekannt waren. Er war nicht nur genial. Er besaß auch eine gesunde Skepsis. Sein Bauchgrimmen deutete oft auf Probleme hin, die wir auch heute teilweise nicht gelöst haben.

Donnerstag, 16. Februar 2012

Talent Cloud – oder die Virtualisierung des Fachpersonals

Die Informatik ist besonders gut darin, alten Wein in neuen Schläuchen anzupreisen. In den 1990er Jahre war es ein beliebter Sport vor allem unserer betriebswirtschaftlich orientierten Kollegen Wörter mit der Vorsilbe Tele (von griechisch: fern) zu bilden. Es gab Telearbeit, Tele-Business, Telekooperation. Tele-Learning, Telepublishing, Tele-Services, usw. Es implizierte das früher häufig benutzte Adjektiv ‚elektronisch‘.

Da ich immer ein Interesse für die Auswirkungen der Informatik auf Arbeitswelt und Gesellschaft empfand, führte ich während meiner Zeit an der TU München (1993-1997) ein Kooperationsprojekt durch mit dem Münchner Betriebswirt Ralf Reichwald. Am Ende bedankte er sich mit einem Exemplar seines 1996 erschienenen Buchs mit dem Titel ‚Das grenzenlose Unternehmen. Seither weiß ich, dass Unternehmen nicht mehr das sind, was sie einst waren. Die Ansammlung einer Menge unterschiedlich qualifizierter Mitarbeiter, die ein Leben lang am selben Ort werkeln, ist ein Auslaufmodell. Alles wird virtualisiert. Man geht symbiotische Verbindungen ein, weil der Aufbau und die Pflege von Kernkompetenzen nicht auf allen Gebieten möglich ist, oder aber zu viel Geld kostet. Es wird empfohlen, sich primär nach den Transaktionskosten zu richten, wenn man überlegt, ob man etwas selbst macht oder dafür einen Partner bemüht. Bei der Überwindung von Standortgrenzen helfen Teleservices, definiert als die mediengestützte ‚dislozierte‘ Erbringung von Dienstleistungen.

Im April 1999 war ich überrascht, als ich von Peter Glotz, dem inzwischen verstorbenen früheren SPD-Generalsekretär und damaligen Rektor der Universität Erfurt zu einem Workshop nach München eingeladen wurde. Es handelte sich um ein ‚International Senior Expert Forum‘ und man traf sich im Hotel Vier Jahreszeiten. Teilnehmer kamen von Fraunhofer Karlsruhe, LMU und TU München, FU Berlin, Universität Bremen sowie den Firmen Intershop und Pixelpark. Die Mehrzahl war Ausländer, z.B. von der Loughborough University, Manchester Metropolitan University, Universität Warschau, Bank of Canada, Boston University; University of Southern California, Getty Picture Collection sowie dem National Institute of Multimedia Education in Tokio. Die Organisation lag in den Händen einer internationalen Beratungsfirma. Bezahlt wurde die Veranstaltung von zwei Bonner Ministerien (BMFT, BMWi). Es war die Zeit der ersten Kanzlerschaft von Gerhard Schröder (SPD).

Ich schloss mich der Arbeitsgruppe Telekooperation und Telearbeit an. Als Vorarbeit wurden so genannte ‚Initial Findings‘ präsentiert aus einer Befragung von etwa 800 Experten (Delphi-Studie). Unsere Aufgabe war es, endgültige Empfehlungen für die Geldgeber abzugeben. Durch die Befragungsergebnisse waren wir natürlich sehr stark gebunden. Wir konnten nur noch die Schwerpunkte geringfügig verschieben und Ratschläge bezüglich der von der Politik zu ergreifenden Maßnahmen geben. Da es fast 13 Jahre her ist, verletze ich keine Geheimhaltungsverpflichtungen, wenn ich einige der Aussagen wörtlich zitiere.

Die Telearbeit hat eine Flexibilisierung von Arbeitszeiten zur Folge. Die bisher (durch das Arbeitsrecht) geschützten Arbeitsverhältnisse werden durch neue Formen der Selbständigkeit abgelöst. Das gesamte Angebot an Arbeit wird global verteilt. Das führt zu einer Umwandlung der Struktur der Unternehmen. Die meisten Firmen werden nur aus einem kleinen Kern ortsgebundener Festangestellter bestehen. Sie werden von einer Sphäre fremdvergebener Dienste und Funktionen ergänzt.

Die Führung erfolgt durch den kleinen Kern, der die Geschäftspolitik und die Produktstrategien festlegt. Der Kern kümmert sich um Kundenbeziehungen. Er kontrolliert die Kundendaten, die proprietären Produktelemente sowie das Netz-Management. Der Kern wird ergänzt am unteren Ende von Dienstleistern, die Routinearbeiten durchführen (Produktion, Versand, Abrechnung, usw.). Diese Arbeiten werden zunehmend computerisiert. Die Folge sind fallende Gehälter der Dienstleister. Eine andere Form der Fremdvergabe erfolgt am oberen Ende. Hier sind Spezialisten gefragt. Sie erzielen sehr hohe Gehälter. Allerdings müssen sie eine zeitweise Arbeitslosigkeit in Kauf nehmen. Für ihre Weiterbildung sind sie selbst verantwortlich. Zu erwarten ist eine Renaissance mittelalterlichen Gilden und Zünfte.

Auch in den Firmenkernen wird vorwiegend projektorientiert gearbeitet. Es gibt kaum noch lebenslang Beschäftigte. Das Wort Telearbeit verschwindet, da alle Mitarbeiter in irgendeiner Form Telearbeit leisten. Ein neues Phänomen werden die Teilzeit-Rentner sein. Sie arbeiten schon früh einen Teil der Zeit für sich selbst. Im Alter müssen sie arbeiten, um über die Runden zu kommen.

Soweit die Aussagen von 1999. Heute redet man in der Tat nicht mehr über Telearbeit, da sie ein alter Hut ist. An die Stelle von Rechenzentren und Timesharing-Diensten sind die Computer-Wolken (engl. computer clouds) getreten. Nicht nur computer-basierte Dienste lassen sich als Wolke abstrahieren. Dasselbe gilt auch für Beratungs- und Programmierdienste, aber auch für fachliche Kompetenzen (engl. talents) jeder Art.

Die durch die Presse (etwa Handelsblatt oder Spiegel 6/2012) unter dem Begriff ‚Talent cloud‘ (deutsch: Talentwolke) bekannt gewordenen Pläne der Firma IBM haben kürzlich für lebhafte Diskussionen gesorgt. Als international tätiges Unternehmen liegt für sie der Vorteil des ‚dislozierten‘ Angebots auf der Hand. Im weltweiten Pool lässt sich nicht nur schneller ein Abgleich zwischen Angebot und Nachfrage finden als im rein lokalen Markt. Es können auch bessere Lösungen erzielt werden, und zwar für beide Seiten. Der Nachfrager kommt gleich zu einem Profi, zu jemandem mit Vorkenntnissen und Spezialtalenten. Die sonst oft erforderliche Einarbeitungszeit kann gespart werden. Der Anbieter muss nicht reisen oder gar den Wohnsitz wechseln. Er kann an einem Ort wohnen bleiben, wo die Lebensqualität höher und die Preise niedriger sind als in einem Ballungszentrum. Viele dieser Aspekte sind aus ökologischer Sicht von Nutzen, aber auch aus familienpolitischer Sicht.

Bei so eklatanten Vorteilen gibt es auch Nachteile, also einen Preis. Nicht jede Arbeit ist für eine Auslagerung (engl. outsourcing) oder gar für Heimarbeit geeignet. Es müssen viel mehr Dinge im Voraus explizit vereinbart werden. Die Kommunikation kann verkümmern oder ganz zusammenbrechen. Dann wird die Kontrolle des Fortschritts und der Qualität schwierig. Versagt ein Partner oder Lieferant, wechselt man zum nächsten – natürlich mit entsprechendem Zeitverlust. Das Risiko, dass die Aufträge geringer sprudeln als erwartet, oder dass sie ganz wegbleiben, trägt nicht mehr das Unternehmen selbst sondern die freischaffenden Hilfstruppen.

Was über die Firmenstruktur vorhergesagt wurde, erleben wir bereits bei vielen Firmen als Alltag. So ist die Firma Apple nur noch Entwurfs- und Vertriebsbüro. Sie beschäftigt mehrere 100,000 Leute in chinesischen Firmen. Sie selbst hat weniger als 50.000 Mitarbeiter in Amerika und Europa. Im Software-Bereich spielt Indien die Rolle der verlängerten Werkbank für Firmen wie IBM und SAP. Allerdings handelt es sich in beiden Fällen nicht um Partner sondern um Tochterfirmen, mit denen kooperiert wird. Ein viel zitiertes Modell stellt TopCoder dar. Nach eigenen Angaben beteiligten sich bisher etwa 400.000 Programmierer an den von dieser Firma vermittelten Projekten. Sie selbst hat weniger als 300 Beschäftigte. Es liegt nahe, dass man für die Anbieter auch ein Bewertungs- oder Zertifizierungssystem schafft.

Es ist keine Frage, dass Beratungsdienste jeder Art im Internet eine große Rolle spielen – seit Anbeginn. Das betrifft Probleme an Haushaltsgeräten und Computern und endet mit Diätempfehlungen. Nur bei medizinischen Fragen geht man besser zum Hausarzt. Sowohl bei der Telekom wie bei allen bekannten Computer-Firmen ist die Online-Beratung unverzichtbar. Bei nicht produktbezogenen Problemen wende ich mich normalerweise, telefonisch oder per Internet, an einen freundlichen Ex-Kollegen. Als er einmal verreist war, versuchte ich mein Glück bei einem standardisierten Vermittlungsdienst. Er brachte mich in Kontakt mit einem Experten, der mein Problem löste, d.h. der mir den richtigen Tipp gab, wo ich suchen sollte. Der Experte verbesserte sein Einkommen, abhängig von meiner Bewertung seiner Dienstleistung. Für mich war er vorher völlig unbekannt. Es lohnte sich auch nicht, sich seinen Namen und seine Adresse zu merken. Er war Teil einer Wolke wie der Pannenhelfer des ADAC.

Die zuletzt genannten Beispiele deuten darauf hin, dass das Wolken-Modell vielleicht nur adäquat ist für Leistungen, die von Einzelpersonen erbracht werden können. Es passt auch für Leistungen, die mit geringem Kapitaleinsatz möglich sind. Dazu gehören viele professionelle Dienste, etwa die von Diätberatern, Steuerhelfern und Anwälten. Auch Unternehmensberater sind vielfach Einzelexperten. Das Modell passt weniger gut für medizinische Operationen und Autoreparaturen. Den Hausbau oder den Maschinen- und Fahrzeugbau überlässt man lieber eingespielten Teams, also längerfristig bestehenden Zusammenschlüssen. Es ist und bleibt das Betätigungsfeld von Unternehmen. Auch die Entwicklung größerer Software-Systeme fällt meistens in diese Kategorie. Das lässt sich nicht ignorieren, obwohl die Einzelkämpferkultur der quelloffenen Systeme (engl. open source) viel von sich reden macht.

Der Weg zur Talentwolke macht in sehr vielen Situationen durchaus Sinn. Die vom Internet vermittelten Fachkräfte haben für beide Seiten Vorteile, den Anbieter wie den Nutzer. Wie viele andere Modelle setzt er normale wirtschaftliche Verhältnisse voraus, also gutes Wetter. Er versagt, sobald nicht genügend Nachfrage vorhanden ist, oder wenn nicht die richtigen Talente angeboten werden. Der Aufbau neuer Fachkompetenzen erfolgt nicht zeitlos. Der Bedarf kann sich schneller ändern, als Leute umgeschult werden können. Auch kann nicht jeder alles lernen. Die Konsequenz daraus ist, dass sich eine Schere bildet zwischen den schnellen und anpassungsfähigen Mitbürgern und den langsamen und verharrenden. Das ist ein nicht zu ignorierendes soziales Problem.

Es gehört leider zu den kritikwürdigen Aspekten unserer Gesellschaftsform, dass die private Wirtschaft sehr schnell zur Stelle ist, wenn es darum geht, Vorteile auszunutzen und daraus sich ergebende Gewinne einzustreichen. Für die Nachteile und die Reparatur eventuell angerichteter Schäden schaut man gerne auf andere.

Samstag, 11. Februar 2012

Adieu, papierne Verlagswelt

Dieser Tage erscheint Heft 1, 2012, des ‚Informatik-Spektrums‘. Es enthält in gedruckter Form den Beitrag von Manfred Broy und mir mit dem Titel. ‚Mehr Lebensqualität dank Informatik‘.

Ich gestehe, dass ich jeden Monat immer noch 3-4 papierne Zeitschriften bekomme. Neben dem ‚Spektrum der Wissenschaft‘ sind es noch je eine ACM- und eine IEEE-Zeitschrift. Ich lese längst deutlich mehr Zeitschriftenartikel am Bildschirm als auf Papier, ganz zu schweigen von Nachrichten, Sportkommentaren, Wetterberichten, Sudokus und dgl. Da ein wöchentlich erscheinendes deutsches Nachrichten-Magazin zu meinen elektronischen Abos gehört, liegen die Seitenzahlen am Tablettrechner (sprich iPad) oder Smartphone mit großem Abstand vorne. Statt früher drei bekommen wir seit zwei Monaten auch nur noch eine Tageszeitung auf Papier. Selbst lokale Nachrichten und Kommentare gibt es schneller (und gleich gut) wo anders. Der Trend, weg vom Papier, also von Bäumen und Hadern, ist bei mir längst kein Diskussionspunkt mehr. Der Berg von Papier, den wir täglich entsorgen, ist erheblich kleiner geworden. Dass die Abfalltonne für Papier noch nicht ganz leer bleibt, dafür sorgen jedoch lokale Discounter, Versandhändler und Kreuzfahrtunternehmen.

Aber, das ist eigentlich gar nicht mein heutiges Thema. Es geht mir darum, wie wir als Fachleute mit dem Wandel fertig werden. Hier liegt nach meinem Dafürhalten Einiges im Argen. Ich bin schon eine Weile nicht mehr im Beruf aktiv. Insbesondere bin ich nicht auf Publikationen angewiesen für den Erfolg meiner Karriere. Für viele andere Kolleginnen und Kollegen ist dies jedoch der Fall. Um sie mache ich mir Sorgen. Zum Glück sind sie nicht auf deutsche Verleger angewiesen.

Die Geschichte, die ich erzählen will, begann Ende August 2010. Ich befand mich mit meiner Frau im Urlaub an der Côte d’Azur. Hin und wieder las ich meine Post. Darunter war die Mail der Kollegin Heidi Heilmann, die mir schrieb, dass ein Bekannter von ihr mit mir über das Endres-Gunzenhäuser-Buch ‚Schuld sind die Computer!‘ sprechen möchte. Ich schrieb zurück, dass ich mich immer gerne mit meinen Lesern unterhalte, und dass der Herr sich gedulden möge, bis ich wieder in Deutschland wäre. Nach mehreren Versuchen kam ein Treffen am 29.9. bei mir zuhause zustanden. Es erschien ein Herr Mörike. Auf meine beiläufige Bemerkung, dass er der Träger eines berühmten Namens sei, informierte er mich, dass er weitläufig zur Familie des Dichters Eduard Mörike gehöre.

Er stellte sich dann als ehemaliger Mitarbeiter der Firma Integrata vor, die früher von Herrn und Frau Heilmann geleitet wurde. Er sei im Ruhestand, sei aber nebenher Geschäftsführer der Integrata-Stiftung. Bald wurde mir klar, dass der wahre Grund seines Besuches war, mich für die Unterstützung der Stiftungsziele zu gewinnen. Ich war von der Idee, als Ruheständler etwas für die Gesellschaft zu tun, nicht ganz abgeneigt, hatte aber immer eine Reihe von Bedenken gehabt. So hielt ich es mit Margaret Thatcher, dass es die Gesellschaft nicht gibt, sondern nur Leute, evtl. junge und alte, Frauen und Männer. Auch kannte ich das Wort Lebensqualität primär aus der Sprache meines Hausarztes. Ansonsten waren es Soziologen oder so genannte Gutmenschen, die sich um dieses Thema bemühten, zwei Personengruppen, mit denen ich mich nicht identifizierte.

Ich versprach Herrn Mörike, einen Versuchsballon bei meinen Bekannten zu starten. Es seien dies vor allem zwei Gruppen, einmal ehemalige Kollegen aus der Firma IBM, zum Andern etwa 50 Universitätsprofessoren in Informatik. Am 7.10.2010 verschickte ich eine E-Mail an etwa je 10 Kontakte aus beiden Gruppen. Hier der volle Wortlaut:

wie Sie vielleicht wissen, hat vor 10 Jahren Prof. Dr. Wolfgang Heilmann aus Tübingen einen Teil des Erlöses aus dem Verkauf der Firma Integrata in eine Stiftung überführt. Diese Stiftung – Integrata-Stiftung genannt – hat sich das Ziel gesetzt, die humane Nutzung der Informationstechnologie (IT) zu fördern. Was der Stifter darunter versteht, ist auf der Homepage der Stiftung ausführlich beschrieben.

Offensichtlich ist der Rahmen dessen, was als humane Nutzung angesehen wird, sehr weit gespannt. Die Stiftung hat daher unter anderem ein Portal eingerichtet, um die Thesen des Stifters öffentlich zu diskutieren. Jedes Jahr vergibt die Stiftung einen Preis, um besondere Beiträge zum Ziel der Stiftung zu fördern. Der Preis ist mit 10.000 Euro dotiert. Nach meiner Meinung hat die Stiftung bisher weniger Beachtung  gefunden als sie es verdient. Auch war das Interesse an der Preisausschreibung bisher geringer als erhofft.

Ausführliche Informationen zur Stiftung finden Sie übrigens in dem kürzlich erschienen Buch der Kollegin Heidi Heilmann mit dem Titel ‚Humane Nutzung der Informationstechnologie‘. Das Buch ist beim Aka-Verlag in Heidelberg erschienen, ist aber auch als Volltext kostenlos lesbar bei PaperC. Neben den Zielen der Stiftung werden alle Projekte vorgestellt, die bisher in den Genuss des Preises kamen.

Vor kurzem wurde ich vom Vorstand der Integrata-Stiftung gebeten, mit dazu beizutragen, dass die Stiftung unter Informatikerinnen und Informatikern besser bekannt wird. Ausgelöst wurde dies durch ein Gespräch über das Buch von Herrn Gunzenhäuser und mir mit dem Titel ‚Schuld sind die Computer!‘, in dem teilweise eine ähnliche Thematik behandelt wird.

Mit diesem Schreiben möchte ich einen ersten Schritt tun, um den an mich heran getragenen Wunsch zu erfüllen. Ich würde mich freuen, wenn sie mich in dieser Angelegenheit unterstützen würden. Bitte sagen Sie mir, was man Ihrer Ansicht nach tun sollte. Vielleicht können Sie mit der Werbung bei ihren Kollegen und Mitarbeitern anfangen

Über die Hälfte der angeschrieben Kollegen antwortete. Alle, die antworteten, äußerten sich sehr positiv. Mein Kollege Manfred Broy meinte, dass eine Publikation im ‚Informatik-Spektrum‘ ein guter erster Schritt sei und er mich dabei unterstützen würde. Ich nahm ihn beim Wort. Ich entwarf einen Text, den er verbesserte und ergänzte. Das Papier ging am 6.11. an die beiden Hauptherausgeber des ‚Informatik-Spektrums‘. Am 28.1.2011 erhielt ich den Korrekturabzug. Am 15.2. erschien die Online-Version. Das klingt soweit ganz gut.

Das Problem wird deutlich, wenn man die Details ansieht. Will man den Artikel online lesen, verlangt der Verlag für diese fünf Seiten den stolzen Preis von 34,95 Euro. Dieser Abschreckungspreis gilt meines Wissens auch für Abonnenten der Zeitschrift. Die Online-Version kann das normale GI-Mitglied erst auf der Homepage der GI lesen, wenn das betreffende Heft im Druck erscheint. Das Gros der 20.000 GI-Mitglieder kann also erst in den nächsten Tagen besagten Artikel zum ersten Mal lesen, gut 15 Monate nach seiner Einreichung.

Das Versprechen, das ich Herrn Mörike und der Integrata-Stiftung gegenüber abgegeben hatte, erwies sich demnach als leeres Getue, als Farce. Dafür möchte ich mich entschuldigen, ebenso bei meinem Ko-Autor. Die nicht ganz unberechtigte Frage, ob wir Autoren gegenüber benachteiligt wurden, die für die Veröffentlichung ihrer Beiträge bezahlten, kann ich nicht beantworten.

Meine persönliche Schlussfolgerung aus dieser Erfahrung ist, dass ich keine fachlichen Beiträge mehr an eine papierne Zeitschrift einreichen werde. Wie anfangs gesagt, ist meine Karriere nicht von Veröffentlichungen abhängig. Ich bin jedoch in einem Alter (alsbald 80), in dem derartige Wartezeiten unzumutbar sind. 

Ende Januar letzten Jahres zog ich die Konsequenz und startete diesen Blog. Er brachte es bis jetzt – wie man leicht erkennen kann – auf fast 150 Beiträge (engl. posts) und etwa 12.000 Besucher aus aller Herren Länder. Für Informatikerinnen und Informatiker ist diese Publikationsform nicht nur zumutbar. Man kann nicht umhin, sich fachlich damit auseinandersetzen. Viele Kollegen aus England, Italien, der Schweiz und den USA sind voll darauf abgefahren. Was dies für die ‚papiernen‘ Verleger mit sich bringt, ist eigentlich deren Problem.

Ich selbst werde natürlich auch noch auf Papier veröffentlichen. Es ist ein adäquates Medium für vorwiegend ältere Leser, die sich für meine Texte zur Heimatkunde und zur lokalen Geschichte meiner Heimat in der Eifel interessieren. Um in den Buchläden der Eifel neben anderer Spezialliteratur präsent zu sein, dafür investiere ich sogar noch etwas. Wie ich im November letzten Jahres dazu schrieb, sind handfeste Buchgeschenke (mit möglichst viel Bildern und in nicht zu kleiner Schrift) in gewissen Kreisen noch nicht ersetzbar.

Montag, 6. Februar 2012

Nano, die neue Wundertechnologie

Ein Film über Nanotechnologie, der letzte Woche bei Arte gezeigt wurde, will darauf aufmerksam machen, dass es eine neue Technologie gibt, von der wahre Wunder zu erwarten sind. Als Anwendungsbeispiel wurde die Medizin gewählt.

Ein Nanometer ist bekanntlich ein Milliardstel Meter (10 hoch −9 m). Die Technologie beruht darauf, Objekte dieser Größenordnung zu manipulieren. Dabei spielen die Oberflächeneigenschaften gegenüber den Volumeneigenschaften der Materialien eine immer größere Rolle. Auch müssen zunehmend quantenphysikalische Effekte berücksichtigt werden.

In der Medizin können Nanopartikel nützlich sein bei der Früherkennung von Erkrankungen. So genannte Biomarker sind krankheitsspezifische Botenstoffe, die in einem sehr frühen Stadium im Blut oder in der ausgeatmeten Luft vorkommen. Es kann sich um Zellen, Gene oder bestimmte Moleküle wie Enzyme oder Hormone handeln. Werden sie erkannt, kann die Krankheit in der Frühphase behandelt werden. Auch können Tumoren eisenoxidhaltige Nanoteilchen eingespritzt werden. Werden sie erhitzt, wird das Tumorgewebe abgetötet. In einer Hülle aus organischen und anorganischen Materialien verpackt können Medikamente direkt zum erkrankten Organ gelenkt werden. Es können sogar einzelne Zellen behandelt werden. Werden diese zum Bilden ganz bestimmter Gewebe angeregt, öffnet sich das Tor zur regenerativen Medizin. Wie ein Regenwurm kann dann auch der Mensch verlorene Organe und Glieder neu wachsen lassen. Mit Knochen und Knorpel scheint dies am leichtesten möglich zu sein. Vorstellbar ist es auch für Gehirnzellen.

Gaben einst (d.h. in grauer technischer Vorzeit) Computer Veranlassung für wildeste Spekulationen, so scheinen wir Informatiker diesen Ball verloren zu haben. Wir haben es nicht geschafft, die tollen Lösungen der Natur nachzubauen, die sich z. B. im menschlichen Gehirn manifestieren. Die Nanomediziner haben es um Klassen einfacher. Sie brauchen nicht zu verstehen, wie die Natur arbeitet, sie reproduzieren sie einfach so wie sie ist. Früher waren es die Nicht-Informatiker, denen es nicht ganz geheuer war, wenn wir unsere Extrapolationen veröffentlichten. Jetzt gehören wir irgendwie mit zu den Zweiflern, oder aber zu den Angsthasen – sollte man glauben, was erzählt wird.

In dem Arte-Beitrag wurde immer wieder hervorgehoben, wie gefahrlos die Herstellung der Nanoprodukte und ihre Anwendung ist. Hier gibt es offensichtlich unterschiedliche Meinungen. Befürchtet wird, dass Nanopartikel die DNA schädigen oder Krebs auslösen könnten. Vor allem fehlt es an Langzeitdaten. Fast entsteht der Eindruck, dass die Nano-Technologie wie jede andere viel versprechende Technologie vor ihr zurzeit eine Hype-Phase durchläuft. Dann wird mal wieder eine Generation von Wissenschaftlern und besorgten Bürgern benötigt, bis dass man rational damit umgeht. Die Atomenergie lässt grüßen!


 Am 6.2.2012 um 12:44 Uhr schrieb Peter Hiemann aus Grasse:

… der Arte-Beitrag war für mich aus zwei Gründen interessant. Erstens wird gezeigt, wie die Veränderung einer Messskala neue Vorgehensweisen in Forschung, Entwicklung und Industrie eröffnet. Zweites wie der Umgang mit Materie auf der Nanoskala es ermöglicht, natürliche Prozesse nicht nur zu modellieren und zu simulieren sondern technisch erzeugte Nanostrukturen mit natürlichen Strukturen zu Interaktionen zu veranlassen.


Wie Sie wissen, gilt mein spezielles Interesse biologischen, geistigen und gesellschaftlichen Phänomenen unter dem Blickwinkel autopoietischer Systeme. Entsprechend frage ich mich, welche Möglichkeiten Nanotechnologie bietet, derartige Systeme besser zu analysieren und zu beeinflussen. Das Potential der Nanotechnologie geht sicher über die gezeigten Beispiele der Medizin hinaus. Die Nanotechnologie eröffnet für Ingenieure aller Couleur eine neue Messskala - ein Milliardstel Meter - für die Konstruktion von Systemelementen. Auch für die Hardware von Informationssystemen.
 

Es ist natürlich interessant zu fragen, ob die Nanotechnologie dabei ist, der Informatik den Rang in der Beliebtheit der öffentlichen Meinung für Zukunftsspekulationen abzulaufen. Ich denke eher nicht, da es sich bei geistigen und gesellschaftlichen Phänomenen nicht um Wechselwirkungen zwischen Nanostrukturen handelt, sondern um Phänomene im Sinne der Luhmannschen Kommunikationstheorie.

Also der Reihe nach:


Biologische Phänomene auf molekularer Ebene sind schon ziemlich gut verstanden und die Pharmaindustrie benutzt aufwändige Verfahren, viele medizinische Wirkstoffe herzustellen. Diese Wirkstoffe, wie übrigens auch Drogen, beruhen auf dem biologischen Schlüssel-Schloss-Prinzip. Dieses Prinzip wurde schon 1894 von Emil Fischer hypothetisch beschrieben und ist heute auch die Grundlage für den Einsatz von Nanotechnologie, um biologische Prozesse  zu beeinflussen. Nanotechnologie in der Medizin sind die Umsetzung des Wissens von Molekularbiologen in effektive Methoden für Diagnose und  für gezielte Behandlung von Krankheiten. Professor Samuel Stupp von der Northwestern University ist sogar überzeugt, dass Nanotechnologie  für die Herstellung und Restauration organischer Gewebe zum Einsatz kommen wird. Übrigens sind die Verfahren, nanotechnologische Pharmaka herzustellen, den Verfahren der heutigen Pharmaindustrie überlegen, da sie durch relativ kleine Abmessungen dezentral in Hospitälern einsetzbar sind.


Die Phänomene des Geistes sind noch nicht gut verstanden, obwohl die IT-Industrie  Methoden und Hilfsmittel entwickelt hat, die viele geistige Tätigkeiten effektiv  unterstützen. Die IT-Methoden beruhen vorwiegend auf mathematischen und logischen Prinzipien. IT-Methoden haben sich für die Herstellung von Steuerungs- und Prozessmodellen für eine Vielzahl von Anwendungen bewährt.  IT in solchen Anwendungen ist die Umsetzung des Wissens von Experten des jeweiligen Anwendungsbereiches in IT-Sprache. Vermutlich ist die Zeit reif, dass sich IT-Experten ein paar Gedanken machen, wieweit die gegenwärtigen IT-Methoden ausreichen, um natürliche neuronale Prozesse  umfassend zu repräsentieren. Vielleicht werden eines Tages Verfahren der Nanotechnologie helfen, den vielfältigen menschlichen neurologischen Prozessen im Detail auf die Spur zu kommen.  Dieses Wissen könnte vielfältige IT-Forschungsprogramme befruchten, um das Design zukünftiger IT-Systeme und Programmiermethoden zu beeinflussen.


Die Phänomene der Wechselwirkungen in Gesellschaften sind ziemlich schlecht verstanden. Philosophen, Theologen, Soziologen und Psychologen benutzen die vielfältigsten heuristischen Hypothesen, um gesellschaftliche Verhaltensweisen zu verstehen. Die Effektivität ihrer Methoden ist bestenfalls mit „zweifelhaft“ zu bewerten. Wirtschaftswissenschaftler reklamieren für sich, dass ihre Methoden die gesellschaftlichen Verhaltensweisen wohl am besten widerspiegeln. Die „wissenschaftliche“ Ökonomie orientiert sich am Kosten/Nutzen Prinzip und basiert auf Berechnungen, die sich der Methoden der Wahrscheinlichkeitstheorie und Spieltheorie bedienen. Die Randbedingungen für ökonomische Analysen und Berechnungen liefert der sogenannte „intelligente“ anonyme Markt. Die wissenschaftliche Ökonomie hat mit den realen Prozessen der Industrie, vor allem der Finanzindustrie, wenig gemeinsam.


Für das bessere Verständnis gesellschaftlicher Phänomene wird die Nanotechnologie wohl kaum eine Rolle spielen, außer indirekt durch die  gesellschaftlichen Auswirkungen auf die Industrie und das Gesundheitssystem. Entscheidender Einfluss auf Gesellschaftsstrukturen wird wohl den  Informationstechnologien zukommen, die das Kommunikationsverhalten innerhalb gesellschaftlicher Institutionen und global zwischen gesellschaftlichen Institutionen vielfältiger Kulturkreise beeinflussen. Die vielfältigen  Funktionen der internationalen Netzwerke, der computergestützten Wissenssuchmechanismen, der computergestützten Erweiterungen der Realitätswahrnehmung (Augmented Reality) und der sogenannten persönlichen sozialen Netzwerke sind heute schon überall auf mobilen Geräten verfügbar. Da sie außerdem ökonomisch äußerst erfolgreich sind, zeigen sie schon heute ihren starken Einfluss auf Gesellschaftsstrukturen.


Um 20:11 Uhr ergänzte Peter Hiemann mit dem Hinweis:


gerade habe ich bei nano (3Sat) einen Beitrag gesehen, der ein weiterer Beleg ist, dass das Thema Nanostrukturen sehr aktuell ist. Der Titel hieß: ‚Faltbares Erbmaterial  - DNA als vielseitig einsetzbarer Baustoff‘. Folgende Aussage fand ich besonders interessant: Für die Zukunft müsse erreicht werden, dass sich die einzelnen DNA-Bestandteile nicht nur zueinander anordnen, sondern auch aufeinander reagieren. …Man muss den DNA-Schnipseln nur noch "sagen", wie sie sich genau zusammenbauen müssen. Molekulare Marker weisen ihnen den Weg.