Archive for the ‘Technische Verfahren’ Category

h1

Make it! Make-Szene

12. Oktober 2015

Von der Industrie weitgehend unbemerkt, wächst eine Bewegung (ob es eine Massenbewegung wird ist unklar) der technischen Selbsthilfe und des kreativen Probierens neuer Möglichkeiten. So zum Beispiel sind aus der

RaspberryPi (c) Wikipedia; Philipp Bohk

RaspberryPi (c) Wikipedia; Philipp Bohk

veranschlagten Auflage eines Mini-Schulungscomputer (z.B. Raspberry Pi; ~25€) von 20.000 eine Produktion von mehr als 60.000 pro Tag (!) geworden! Was heißt das für „unser“ Innovation und dessen Management? Also meiner Meinung nach:

  1. Eine Generation von Probierern wächst heran. Das ist nichts Schlechtes, nein das probieren ohne jede hier zu berücksichtigende Differentialgleichung lösen zu können bietet einen unbekümmerten und vor allem offenen Blick auf die anstehende Problematik. Manchmal werden hier Lösungen gefunden, die echt verblüffend sind – OK, man / frau braucht halt länger aber sie finden etwas!
  2. Hier kommen auch Mitarbeiter in Kürze auf den „Markt“ die probieren wollen und ganz sicher wegen 200€ Budget nicht den 18 Seiten Formularantrag ausfüllen möchten und dann durch 13 Stage-Gates Spießrutenlauf zu müssen
  3. Die Werkzeuge zur Datenerfassung, Regelung, Aktoren und Sensoren kann man um das Taschengeld Ihres Sohnes kaufen. Das bietet eine mehr als rechhaltige Experimentierpalette auch für die geschrumpelten F&E-Abteilung – der Wille sich einzuarbeiten vorausgesetzt. Klar, nicht alles kann man so lösen, die Bruel&Kjaer Geräte und die Tektronix Ausrüstung hat noch immer ihre Berechtigung.
  4. Ein Potential an Zeit muss allerdings da sein aber das wichtigere Potential Motivation wird durch diese Beschäftigung stark gefördert.
  5. Ohne Hands-On geht nichts. Also nichts mehr mit gescheit-reden und outsourcen.
  6. Da gibt es aber außerdem noch eine nicht zu vernachlässigenden zusätzlichen Aspekt im Zusammenspiel zwischen F&E und dem Vertrieb: Die Kunden die in der Make-Szene auch nur ein wenig engagiert sind, lassen sich nur einmal hereinlegen. Also Spezialentwicklungen der F&E(?) damit das der Kondensator nach 2000 Stundenkaputt ist oder iPhones die nur mit Spezialwerkzeug öffenbar sind um dann den alten Akku als eingeklebt vorzufinden sprechen sich in Windeseile herum. Also technische Güte scheint wieder gefragt zu sein und weniger Style?
  7. Vorsicht Controller-Irrsinn: wenn jetzt die Entwicklungsbudgets auf 300€ schrumpfen und Zeit und Freiheit nicht mit geliefert werden würde ich die Firma verlassen.

Kaufen Sie sich doch eine Ausgabe der Zeitschrift „Make:“ (9,90€). Sehr viele Schulen haben diese Zeitschrift für Lehrer abonniert!

Viel Erfolg

Gottfried Schaffar

h1

Innovation, VW, Samsung und sicher noch andere…

4. Oktober 2015

Ja, die Entwicklungsabteilungen werden heruntergefahren – es wird gespart, koste was es wolle. Und echte Lösungen und Innovationen sind eben um einige Cent teurer als Getrickst. Wie ich höre waren in der Autobranche durchaus Lösungen für das Abgasproblem bekannt, aber ein paar Zeilen Code sind billiger. „VW – da weiß man was man hat.“

Herzig unglaubwürdig finde ich ja auch, dass die Vorgangsweise bei den Samsung Fernsehern niemand bemerkt haben soll: beim international zertifizierten Testprogramm hat sich die Bildschirmhelligkeit einfach stark reduziert und der Energieverbrauch war geringer. Und das soll niemanden aufgefallen sein?

Zum Thema Zertifizierung: unter der Annahme dass Autofirmen selber alle ISO-9000 etc. Anforderungen, die sie von den Lieferanten verlange auch selber erfüllen… Hmmm, also kann man das technische Hereinlegen von Ämtern, Vertriebspartnern und Konsumenten ja offensichtlich qualitätssichern? Da ist sicher nach dem Qualitätshandbuch vorgegangen worden. War das nun Betrug – qualitätsgesichert? (Gilt die Unschuldsvermutung?)

Offensichtlich kann man geplante Obsoleszenz, die gewollte Verkürzung der Lebensdauer von industriell hergestellten Produkten, auch nach ISO-9000 machen?

Nein Danke

Viel Erfolg

Gottfried Schaffar

2 Tage nach dem obenstehenden Artikel im Standard: 5. Oktober 2015:

Standard#151005#VW

PPS.: weiter 2 Tage nach der Offenlegung, dass die Krise durch Sparen (im weitesten Sinn) verursacht wurde der genialste Schachzug überhaupt: die Krise wird durch Sparen „gelöst“. Na klar, jetzt weiß ich wieso die genialen Direktoren so viel Ged bekommen.

h1

Der Computer macht alle gleich?

13. September 2015

Das hört man in den Betrieben öfter, spätestens beim Leider-Geht-Nicht-Mehr-Danke-Gespräch: „der Computer hat große Teile Ihrer Arbeit ja jetzt übernommen“. Na prost!

Aber die späte Genugtuung ist da? Na ja, Schadenfreude ist nicht motivierend und auch nicht innovationsfördernd. Aber der Karriere-Standard vom 20.6.2015 brachte die Botschaft „iCEO: der virtuelle Manager ist auch schon da“. Ein echt interessanter Artikel von Adrian Lobe – lesen Sie ihn im Original.

In einem Test hat das Programm „iCEO“ die Organisation eines Berichtes für einen prestigeträchtigen Kunden (Fortune 50 Unternehmen) zu managen. Der „iCEO“ schaffte das in 3 Tagen ohne menschliche Interaktion, typischerweise braucht ein normaler Manager dazu mehrere Wochen. Ja, genau: das einstellen der Parameter für die Aufgabe des „iCEO“ brauchte auch ein paar Stunden Zeit. Offensichtlich ist es einfach, eingespielte Vorgangsweisen im Management zu automatisieren.

Der Fahrdienstleister Uber hat kein mittleres Management: alles läuft über den Einsatzcomputer…

Fakt dürfte sein, dass diese Automatisierung ein Heer von Leiharbeitskräften erzeugt das nur mehr virtuell dem Unternehmen zuarbeitet.

Na keine wirkliche Motivation für Innovation…

Viel Erfolg

Gottfried Schaffar

PS.: die Software (falls Sie sie kaufen möchten) ist von Institute for the Future of Work

h1

Daten als Ausgangspunkt von Innovation – Big Data?

2. Februar 2014
fury

fotolia_52537005_xswutc2a9-olly-fotolia-com

Das statistische Herausfiltern von potentiellen Terroristen hat sich nicht bewährt. Der unschuldige Berliner Dozent, der in seinem Fach-Blog zufälligerweise die selbe Formulierung verwendete wie in einem Bekennerschreiben, wurde 6 Monate überwacht, Telefone abgehört und bespitzelt – er wartet nach Jahren noch auf eine Entschädigung. Auch der Mieter im Haus über einer „verdächtigen“ Person, dem von der Vega um 3 Uhr in der Früh die Türe eingetreten wurde, ja der wartet auch vergeblich. OK, war halt das falsche Stockwerk… Das bisschen nackt an der Wand stehen hat auch noch keinem geschadet…

OK, also beim Suchen von seltenen singulären Merkmalen (Terrorist) hat die Statistik ein Problem. Tatsächlich liegt das an dem riesigen Merkmalsraum den Menschen durch ihr Verhalten zeigen. Mit anderen Worten, man kann Menschen nicht durch wenige (100 oder 300) Merkmale charakterisieren. Allein das Foto Ihrer Oma hat 3MByte – das heißt, dass alleine das Erscheinungsbild (nur von einer Seite) 3,000.000 Farbpunkt  Information benötigt.

Es ist ja tatsächlich verführerisch die Verfahren, die für das Aufsuchen von „Ausreißern“ in technischen Daten bewährt sind, in der Verbrechensbekämpfung zu verwenden. Der Unterschied ist (sollte) aber augenfällig sein: Ein Wert des Druckes hat einen „Verhaltensraum“ von 1 – es kann nur der Druck variieren. Selbst wenn wir in einem technischen System andere Parameter dazunehmen, sind das viel weniger als Parameter notwendig wären um einen Menschen zu charakterisieren. Deswegen funktioniert das (oft!). Diese Verfahren kann man nun sehr gut zur Innovation einsetzen: Systeme die Wälzlager überwachen und nur bei Bedarf einen Austausch anmelden – im Gegensatz zu periodischem Austausch.  Oder das Herausfinden ob ein Baum rotfaul ist oder nicht (ein ehemaliges Projekt von uns). Amazon demonstriert das auch sehr selbstbewusst „Diese Produkte könnten Sie auch interessieren…“. Und ich kann nur persönlich sagen – die Dinger interessieren mich auch – das ist eine Innovation. Der Fall der 12-Jährigen, die sich im Internet gerne Babykleidung ansah und der dann zur Geburt gratuliert wurde… das ist keine Innovation, das ist Blödheit. Oder anders ausgedrückt „technisch machbare Ignoranz“. Aber auch hier: die Verhaltensmannigfaltigkeit von Menschen ist (zum Glück) zu groß für eine statistische Datenbankabfrage.

Was, nach unserer Erfahrung, sehr gut funktioniert ist das Aufsuchen von Zusammenhängen in technischen Systemen: z.B. wahrscheinliche Ausfälle aus Betriebsdaten ermitteln oder aus den Betriebsdaten der Produktionsanlage und den Daten der Qualitätssicherung fundamentale Hinweise für Qualitätssteigerung oder Ressourceneinsparung zu liefern.

Die Erfahrung zeigt jedoch: viele Daten und die Statistik alleine reicht nicht. Da wird oft Unsinn gefunden (wie Storchpopulation und Geburtenhäufigkeit) oder nichts gefunden. Warum wird nichts gefunden? Weil der Statistiker oft keine Sachkenntnis über das System hat und weil er selten Kenntnisse über fundamentale Zusammenhänge besitz. Also beispielsweise der Zusammenhang zwischen einem Produktausfall und Belastung mit Vibration, also von Resonanzphänomenen. Oft führt hier der Weg über die mathematisch, physikalische Konstruktion von Sekundärmerkmalen, die dann plötzlich Zusammenhänge offen legen.

Das mit der „normalen“ Statistik nur lineare Abhängigkeiten abgebildet werden ist ein weiteres Problem, das kann man mit künstlicher Intelligenz umgehen kann.

Klar ist: Daten können zum Auffinden von Zusammenhängen sehr gut verwendet werden – solche Zusammenhänge münden tatsächlich oft in Innovationen. Aber bitte Vorsicht: trauen Sie nie einer „black box“ (einem Verfahren, das Sie nicht durchschauen), fordern Sie Verständlichkeit und diskutieren Sie das Verfahren mit Kollegen aus der Praxis.

Viel Erfolg

Gottfried Schaffar

h1

Den Kern eines Problems finden

12. Oktober 2013

Ja wie findet man ihn, den Kern eines Problems? Für mich ist der Kern auch immer der Ort an dem mit relativ wenig Aufwand etwas erreicht werden kann. Sozusagen weit vorne in der Ursache Wirkungs- Kette. Ein sehr empfehlenswertes Werkzeug ist hier die Relevanzbaumanalyse. Das können Sie alleine oder in der Gruppe machen.

406533_web_R_K_B_by_knipseline_pixelio.de

Der Kern des Problems…
by_knipseline_pixelio.de

Sie schreiben eine sehr klare „Definition“ des Problems auf. Aufschreiben ist wichtig, das ist ein Akt des Erwachsen Werdens eines Gedankens. Er steht dann für sich selbst.

OK, nun schreiben Sie die Eigenschaften, Entscheidungen, Umstände und alle Ursachen auf die zum Problem geführt haben. Tun Sie das aber hierarchisch, also ordnen Sie die vor gelagerten Ursachen in einer zeitlichen und/oder ursächlichen Kette. Wenn Sie die Kette(n) senkrecht anordnen – mit der Problemdefinition oben, dann ist es auch wertvoll eine waagrechte Struktur zu finden. Vielleicht eine Zeitliche oder Firmenhierarchische um nur zwei Beispiele zu nennen.

Nun können Sie untersuche was denn die entscheidenden Punkte sind die zum Problem geführt haben. Gut, das ist noch nicht die Lösung, aber von hier ist der Weg zur Lösung meist kurz.  Bitte fangen Sie aber nicht sofort mit der Lösungssuche an, auch über eine Relevanzbaumanalyse sollte man einmal schlafen.

Viel Erfolg

Gottfried Schaffar

PS.: inspiriert vom Buch „Kreativitäts Techniken“ von Evelyn Boos

h1

Automatisierte Problemlösung

26. Mai 2012

Sie haben sicher von EDV-Paketen gehört, die Probleme lösen können – angeblich. Sie haben sicher schon von Methoden gehört, mit denen man Probleme sozusagen im Vorbeigehen, lösen kann – denken wir an TRIZ[i] oder an das Softwarepaket Invention Machine.[ii]

Wenn Sie mit so etwas liebäugeln, dann gehen Sie zu einem Seminar mit einem gelösten Problem im Rucksack – einem Problem, das Kreativität und Kenntnisse benötigt hat. So, und dann stellen Sie dem vortragenden Guru das Problem vor. Ich habe das zweimal getestet, das Resultat war desaströs für das Verfahren. Nicht einmal in die Nähe einer Lösung haben diese Methoden geführt. Aber lustig war es doch – vor allem die Ausreden nach der Auflösung. Versuchen Sie es.

Natürlich gibt es immer wieder Beispiele, bei denen (angeblich) die Lösung mit so einem Verfahren gefunden wurde. Ich gehe davon aus, dass diese Beispiele mit großer Akribie gesammelt werden – sie unterstützen ja das Businessmodell der Vertreiber. Was sicher nicht gesammelt wird, sind Beispiele von Anwendern, die nach drei Versuchen das Zeug auf dem EDV Friedhof – ich meine dem Firmenserver – vergessen haben. Klar, schuld ist der User, hätte er noch die Kurse Level 6 bis 53 gebucht, hätte er kein Problem gehabt.

Aber vielleicht ist das Verfahren für andere Menschen toll – das sind nur unsere Erfahrungen.

[Text aus dem Buch „Radikale Innovationen und grundsätzliche Problemlösungen finden“ von Gottfried Schaffar]


[i] TRIZ ist das russische Akronym für „теория решения изобретательских задач“ (Teoria reschenija isobretatjelskich sadatsch), was sinngemäß übersetzt bedeutet: „Theorie des erfinderischen Problemlösens“ oder „Theorie zur Lösung erfinderischer Probleme“ – Quelle: http://de.wikipedia.org/wiki/TRIZ

[ii] ist ein eingetragenes Warenzeichen der Invention Machine Corporation

h1

Simulation und künstliche Intelligenz

26. August 2010

Eine sehr persönliche Gegenüberstellung: Simulation wie wir sie verwenden und künstliche Intelligenz wie wir sie verwenden.

Simulation

Simulation hat den Anspruch einen Vorgang der in der Wirklichkeit abläuft mathematisch abzubilden. Also als einfaches Beispiel ein Ballwurf nach vorne. Anhand von physikalischen (mitunter auch chemischen) Gesetzen (den so genannten Naturgesetzen ~ vulgo der wissenschaftliche anerkannte Irrtum von Heute) wird dieser Vorgang als Parabel abgebildet. Das alleine wird noch nicht als Simulation bezeichnet, wenn wir nun den Weg des Balls am Bildschirm eines Computer sichtbar machen, also nichts anderes als die mathematisch – physikalischen Gesetze von vorhin anwenden spricht man (plötzlich) von Simulation.

Simulation, wie das Beispiel zeigt, hat aber so seine Tücken: wo endet die „Welt“ in der Simulation, das heißt was alles wird in die Rechnung mit einbezogen:

  • Die Luftbewegung?
  • Der Drall des Balles?
  • Den Luftdruck?
  • Die Lufttemperatur?
  • Die Uhrzeit des Wurfes?
  • etc.

Offensichtlich ist die Menge dessen was an „Effekten“ in die Rechnung einbezogen wird von der Fragestellung (des Auftraggebers) abhängig und vom Kenntnisstand dessen der sie Simulation durchführt.

Die Erfahrung zeigt, dass Simulationen, wenn man sie mit der Wirklichkeit vergleicht, nur in einfachsten Fällen „stimmen“. Die Gründe sind schnell aufgezählt:

Bei der Simulation von Transportvorgängen in einer Fabrikationshalle machen die Arbeiter nicht das was der Mathematiker sich vorgestellt hat

Bei der Simulation von Wärmetransporten im Erdreich sind die Vorgänge in den Kapillaren (Verdampfung und Rerkondensation) zwar prinzipiell bekannt, Lösungsvorgänge und der Regen entziehen sich aber einer deterministischen Beschreibung

Schlichte Softwarefehler sind oft Ursache von Unstimmigkeiten zwischen Simulation und Wirklichkeit. So hatten die mit Millionen US$ entwickelten thermischen Gebäudesimulationsprogramme nach 10 Jahren – bei einem experimentellen Vergleich mit einer riesigen „Betonschachtel“ gravierende Differenzen aus diesem Grund.

Prinzipiell stellt sich auch grundsätzlich die Frage nach der Berechenbarkeit physikalischer Prozesse „How Random is a Coin Toss?“ ist ein sehr guter Artikel.

Zusammenfassung Simulation: ein ausgezeichnetes Werkzeug wenn man genau weiß was man will und man genau weiß was man mathematisch macht. Auch ein ausgezeichnetes Werkzeug zum Geld verdienen – es gibt nie eine Grenze wo man nicht mit guten Gewissen annehmen kann „nehmen wir noch diesen Effekt hinein – dann wir das richtige herauskommen“

Künstliche Intelligenz (zum Auffinden von Zusammenhängen)

Genauso wie „die Simulation“ eine umfangreiche Welt für sich ist, ist auch die künstliche Intelligenz eine weit reichende Wissenschaft. Ebenso wie die Simulation, wird die Anwendung der künstliche Intelligenz nur durch die natürliche Dummheit des Anwenders begrenzt – nein natürlich nicht… na die letzten 3 Sätze sind aber sehr zynisch…

Was ich ausdrücken möchte: künstliche Intelligenz (KI) ist viel mehr als das von uns gerne Auffinden von verborgenen Zusammenhängen; in der Folge beziehe ich mich aber immer nur darauf.

Mit (der von uns angewandten) künstlichen Intelligenz kann man z.B. mit Entscheidungsbäumen oder neuronalen Netzen Regeln in unübersichtlichen Daten erkennen und – was sehr wichtig ist – auf ihre Zuverlässigkeit testen. Die angewandten Verfahren scheiden von sich aus unwichtige Parameter (wie z.B.: die Uhrzeit des Wurfes) aus. Die Frage der Grenze, wie bei der Simulation, stellt sich hier automatisch nicht. Allerdings kann eine solche Untersuchung nicht auf Zusammenhänge kommen die in den Daten nicht aufscheinen – also wenn der Ballwurf vom Drall abhängt und der Drall aber nicht in den untersuchten Datensätzen vorkommt. Hier spielt wieder der physikalische Hausverstand eine große Rolle.

Praktisch hat man viele Datensätze von Messungen und dem gesuchten Zielwert und „der Computer“ sucht in diesen Daten nach sinnvollen Zusammenhängen. Das passiert weit jenseits von Korrelationen und kann mit dem bloßen linearen und eindimensionalen aufsuchen von solchen nicht verglichen werden.

Zu Ende steht ein Regelsatz zur Verfügung wie man aus den Eingangswerten (Messwerten) die gesuchte Zielgröße berechnen kann. Bei den oben erwähnten neuronalen Netzen kann ein menschlicher Betrachter diese Zusammenhänge nicht auf Sinnhaftigkeit prüfen, bei „Entscheidungsbäumen“ sehr wohl. Das ist ein großer Vorteil, da mit dem Auftraggeber das Resultat – das Modell – diskutiert werden kann. Besonders schön ist es, wenn ein Experte zu Anfang der Modelldiskussion, also bei den bedeutsamsten Verzweigungen des Baumes, sagt „das ist sowieso klar“. Dann ist die Basis des Modells sehr stabil.

Zusammenfassung künstliche Intelligenz: Methode um Zusammenhänge in unübersichtlichen Daten zu gewinnen. Richtig angewandt ein schnelles Verfahren das die wesentlichen Einflussparameter von sich aus zusammenfasst.

h1

Technische Wege zur Innovation: Simulation und Optimierung

28. Februar 2010

Nein, jetzt kommen keine Datenbanken mit Ideen …. hier kommt Technik pur:

Simulation

Da ist ein Problem und wenn es ein halbwegs übersichtliche ist kann man es simulieren. Simulieren meint hier eine mathematisch, physikalische Abbildung im Computer eines technischen Objekts. Nun kann man einfach neue Konstruktionen, neue Betriebsbedingungen etc ausprobieren ohne die Dinger zu bauen und kaputt zu machen. Das klingst sehr preiswert, ist es aber nicht so wirklich. Da gibt es einige Probleme

  • Wo fängt die Simulation an, wo hört die Simulation auf? Also bei der Simulation eines Schalters wird man wohl die Festigkeit des Kunststoffes berücksichtigen müssen, den Luftdruck wahrscheinlich nicht. Aber so einfach wie in diesem Beispiel ist die Wirklichkeit nicht: Geht es auch um Wärme, so ist die Frage ob die Einbaubedingungen eines Schalters berücksichtigt werden müssen oder nicht. Also ist der Schalter im Gipskarton versteckt oder in der Natursteinmauer?
  • So einfach ist die Wirklichkeit nicht und für vieles gibt es zwar Rechenvorschriften aber die Realität hält sich nicht so daran. Hier ist zum Beispiel der Bruch eines Materials zu erwähnen – das ist einfach nicht so einfach und überhaupt nicht sehr erfolgreich erforscht.
  • Die Mathematik ist manchmal sehr lästig und damit die Lösungsverfahren schon überhaupt. Denken wir uns ein Aufzugseil bei der Aufwärtsfahrt:  Schwingungsgleichung, der zweite Auflagerpunkt ändert sich dauernd, durch die Aufwärtsfahrt werden im Seil Schwingungen angeregt….

Optimierung

Ist man einmal erfolgreich in der Erstellung einer Simulation kann man diese zur Optimierung einer Zielfunktion verwenden: ein Praxisfernes Ziel (für die Elektroindustrie) wäre eine lange Lebensdauer 🙂 Jetzt stellt sich die Frage „Was bewirkt eine lange Lebensdauer?“ – da ist der Experte gefragt aber zu vermuten ist, dass die Eigenschaften

  • Materialabtrag durch den Lichtbogen,
  • Federstärke,
  • Belastung der bewegten Teile und vielleicht die
  • Feuchtigkeit eine Rolle spielen.

Wir haben also im Normalfall keine einzige Eigenschaft die möglichst groß oder möglichst klein sein soll sondern ein ganzes Bündel. Nun kann man aber nur nach einer Eigenschaft ein Optimum suchen. Das erinnert stark an die Frage „Was ist besser ein 6 Liter Mercedes oder ein Toyota Prius?“. Klar da ist keine einfache Antwort möglich, das kommt auf die Randbedingungen wie Statusbedürfnis oder Umweltbewusstsein an. Mathematisch ausgedrückt: man kann nur im eindimensionalen Positionen ordnen – also größer und kleiner – Aussagen treffen.

Praktisch wird man aus den offenen Eigenschaften einen Mix bilden der einen Wert ergibt der dann optimiert werden kann.

Nun könnte man prinzipiell alle Parameter (Abmessungen, Materialauswahl, Federstärken, Belastungen, Temperaturen,…) so lange verändern bis die Zielfunktion möglichst groß oder klein ist. Das sind aber ein paar hundert, alleine die Konstruktionsmerkmale… Mathematisch bewegen wir uns daher im, sagen wir 500 dimensionalen Raum, und suchen einen möglichst hohen Gipfel. Klar das können nur ausgeklügelte numerische Mathematik Programme, die Anschauung hört ja schon im 4 dimensionalen Raum auf.

Das tolle ist aber, nimmt man den Weg auf sich, man kann „auf Knopfdruck“ ein besseres Produkt erstellen. Ist doch geil – oder? Ein Nebeneffekt ergibt sich aus der Praxis: das Optimierungsprogramm findet jeden Programmierfehler im Simulationsprogramm. Es sucht nämlich wirklich alle Möglichkeiten ab um das Ziel möglichst gut zu erreichen.

h1

Innovation und künstliche Intelligenz

11. Dezember 2009

Fällt einem nichts ein – Ruf nach künstlicher Intelligenz?

Kann man mit Methoden der künstlichen Intelligenz zu Innovationen kommen? Das ist eindeutig mit „ja“ zu beantworten, wenn es sich um Prozesse handelt, bei denen die Zusammenhänge nicht von vorneherein erkennbar sind. Ein typisches Beispiel: In einer Fertigung kommt es manchmal zu kleineren oder größeren Qualitätsschwankungen. Die Anzahl der beteiligten Prozessparameter ist meist hoch und unübersichtlich. Es kann also nicht unmittelbar gesagt werden, welche Einflussgrößen beziehungsweise – noch komplizierter – welche Kombinationen von Einflussgrößen die Störungen verursachen. Beispielsweise kommt es bei der Extrudierung von Getreide nicht nur auf die Prozessparameter des Extruders wie Druck, Geschwindigkeit, Temperatur etc. an, sondern auch auf die Analysequalität des eingesetzten Rohmaterials, die Lagerdauer, Feuchtigkeit etc. Mit den aufgezeichneten Daten der Vergangenheit kann nun mit Methoden der künstlichen Intelligenz eine „Erklärung“ erzeugt werden, warum oder besser unter welchen Umständen der Prozess Probleme macht oder nur manchmal funktioniert. Mitunter kommt es hier zu verblüffenden Resultaten: ein Problem tritt nur dann auf, wenn draußen die Sonne scheint weil, wie sich nachher herausstellt, die Sonne eine Maschine erwärmt, oder ein Problem tritt nur dann auf, wenn ein bestimmter Mitarbeiter die Maschine bedient.

Entscheidungsbaum

Diese Problemlösungen können technisch durch die Erzeugung eines Entscheidungsbaumes mit Hilfe von Methoden des Maschinenlernens erzielt werden. Der Vorteil dieser speziellen Vorgangsweise liegt darin, dass man das gewonnene Resultat auch mit dem Werkmeister diskutieren und auf physikalische Sinnhaftigkeit untersuchen kann. Außerdem kann mit mathematischen Methoden errechnet werden, mit welcher Fehlerquote man bei neuen Fällen rechnen muß.

Beispiele

Auf diese Weise haben wir beispielsweise untersucht, worin sich der Klang einer rotfaulen Fichte von der einer gesunden Fichte unterscheidet. Dies führte zur Entwicklung des „elektronischen Spechtes“ als zerstörungsfreies Diagnoseverfahren von Fichten. Aber auf diese Weise lassen sich auch Lötprobleme, Verformungsprobleme und vieles andere mehr untersuchen. Wir gehen sogar noch weiter: Selbst wenn ein physikalisch–technisches Modell eines Prozesses besteht, erweist es sich oft als außerordentlich hilfreich, wenn der Prozess zusätzlich mit Methoden der künstlichen Intelligenz untersucht wird. Es gibt tatsächlich Fälle, in denen die so gefundene Lösung genauer, schneller oder einfacher ist.

Diese Methoden lassen sich auch ausgezeichnet im nicht-technischen Bereich einsetzen, um beispielsweise bei Mailings diejenigen Adressen zu selektieren, die mit einer wesentlich höheren Wahrscheinlichkeit auf die Zusendung reagieren werden. Auf diese Art und Weise haben amerikanische Firmen die Rücklaufquoten verdreifacht. Eine amerikanische Restaurantkette plant sogar ihren kurzfristigen Personalbedarf mit den Methoden der künstlichen Intelligenz, um in keinem Fall zu viele Mitarbeiter einzuberufen, aber auch nicht zu wenige.

Im Prinzip könnte man all diese Probleme auch beispielsweise durch den Einsatz von neuronalen Netzen lösen. Es scheint sogar, dass die Vorhersagegenauigkeit von neuronalen Netzen einen Hauch besser ist als etwa die Anwendung eines Entscheidungsbaums. Was jedoch in der Praxis gegen die Verwendung von neuronalen Netzen spricht, ist die Unmöglichkeit, das im neuronalen Netz gespeicherte Wissen auf Sinnhaftigkeit überprüfen und diskutieren zu können, weil es nicht einfach in menschlich lesbare Form zu übersetzen ist. Im Falle eines Entscheidungsbaumes sind die Grenzen des Einsatzes überschaubar, ein neuronales Netz kann theoretisch in einem „nächsten“ Bearbeitungsfall plötzlich etwas ganz Unsinniges errechnen, was zwar in der Praxis selten vorkommt, alleine die Möglichkeit irritiert.

Kann man mit Methoden der künstlichen Intelligenz zu Innovationen kommen? Das ist eindeutig mit „ja“ zu beantworten, wenn es sich um Prozesse handelt, bei denen die Zusammenhänge nicht von vorneherein erkennbar sind. Ein typisches Beispiel: In einer Fertigung kommt es manchmal zu kleineren oder größeren Qualitätsschwankungen. Die Anzahl der beteiligten Prozessparameter ist meist hoch und unübersichtlich. Es kann also nicht unmittelbar gesagt werden, welche Einflussgrößen beziehungsweise – noch komplizierter – welche Kombinationen von Einflussgrößen die Störungen verursachen. Beispielsweise kommt es bei der Extrudierung von Getreide nicht nur auf die Prozessparameter des Extruders wie Druck, Geschwindigkeit, Temperatur etc. an, sondern auch auf die Analysequalität des eingesetzten Rohmaterials, die Lagerdauer, Feuchtigkeit etc. Mit den aufgezeichneten Daten der Vergangenheit kann nun mit Methoden der künstlichen Intelligenz eine „Erklärung“ erzeugt werden, warum oder besser unter welchen Umständen der Prozess Probleme macht oder nur manchmal funktioniert. Mitunter kommt es hier zu verblüffenden Resultaten: ein Problem tritt nur dann auf, wenn draußen die Sonne scheint weil, wie sich nachher herausstellt, die Sonne eine Maschine erwärmt, oder ein Problem tritt nur dann auf, wenn ein bestimmter Mitarbeiter die Maschine bedient.

Diese Problemlösungen können technisch durch die Erzeugung eines Entscheidungsbaumes mit Hilfe von Methoden des Maschinenlernens erzielt werden. Der Vorteil dieser speziellen Vorgangsweise liegt darin, dass man das gewonnene Resultat auch mit dem Werkmeister diskutieren und auf physikalische Sinnhaftigkeit untersuchen kann. Außerdem kann mit mathematischen Methoden errechnet werden, mit welcher Fehlerquote man bei neuen Fällen rechnen muß.

Auf diese Weise haben wir beispielsweise untersucht, worin sich der Klang einer rotfaulen Fichte von der einer gesunden Fichte unterscheidet. Dies führte zur Entwicklung des „elektronischen Spechtes“ als zerstörungsfreies Diagnoseverfahren von Fichten. Aber auf diese Weise lassen sich auch Lötprobleme, Verformungsprobleme und vieles andere mehr untersuchen. Wir gehen sogar noch weiter: Selbst wenn ein physikalisch–technisches Modell eines Prozesses besteht, erweist es sich oft als außerordentlich hilfreich, wenn der Prozess zusätzlich mit Methoden der künstlichen Intelligenz untersucht wird. Es gibt tatsächlich Fälle, in denen die so gefundene Lösung genauer, schneller oder einfacher ist.

Diese Methoden lassen sich auch ausgezeichnet im nicht-technischen Bereich einsetzen, um beispielsweise bei Mailings diejenigen Adressen zu selektieren, die mit einer wesentlich höheren Wahrscheinlichkeit auf die Zusendung reagieren werden. Auf diese Art und Weise haben amerikanische Firmen die Rücklaufquoten verdreifacht. Eine amerikanische Restaurantkette plant sogar ihren kurzfristigen Personalbedarf mit den Methoden der künstlichen Intelligenz, um in keinem Fall zu viele Mitarbeiter einzuberufen, aber auch nicht zu wenige.

Im Prinzip könnte man all diese Probleme auch beispielsweise durch den Einsatz von neuronalen Netzen lösen. Es scheint sogar, dass die Vorhersagegenauigkeit von neuronalen Netzen einen Hauch besser ist als etwa die Anwendung eines Entscheidungsbaums. Was jedoch in der Praxis gegen die Verwendung von neuronalen Netzen spricht, ist die Unmöglichkeit, das im neuronalen Netz gespeicherte Wissen auf Sinnhaftigkeit überprüfen und diskutieren zu können, weil es nicht einfach in menschlich lesbare Form zu übersetzen ist. Im Falle eines Entscheidungsbaumes sind die Grenzen des Einsatzes überschaubar, ein neuronales Netz kann theoretisch in einem „nächsten“ Bearbeitungsfall plötzlich etwas ganz Unsinniges errechnen, was zwar in der Praxis selten vorkommt, alleine die Möglichkeit irritiert.