Algebra        zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]
 
bild

Algebra wird oft mit Formelsprache identifiziert, wichtig ist aber die Unbekannte als Variable. Vergleiche François Viète als Vater der Algebra in der Neuzeit.

Als Algebra bezeichne ich einen Aspekt der Mathematik, in welchem Gleichungen in der Notation vorausgesetzt werden, was als das Rechnen mit Unbekannten in Gleichungen aufgefasst werden kann. In der Arithmetik entsteht Gleichheit durch das Resultat zur Rechnung. Ich schreibe beispielsweise:
2 + 3 = .. und wenn ich das Reslutat einsetze habe ich die Gleichung. In der Algebra schreibe ich dagegen:
2 + 3 = X womit ich die Gleichung bereits habe. Die Algebra bildet auch eine Art Metasprache zur Arithmetik.

Die Algebra verwendet Zeichen (meist Buchstaben wie a, i, j, x, y) als Platzhalter für Zahlen, und ermöglicht so:

bild

Zur Geschichte:
Der Grieche Diophantos von Alexandria, der wahrscheinlich zwischen 100 v. Chr. und 350 n. Chr. lebte verfasste ein 13 Bände umfassendes Werk Arithmetica, das das älteste bis heute erhaltene Werk ist, in dem die algebraische Methode (also das Rechnen mit Buchstaben) verwendet wird.
Eine der ersten Darstellungen der Algebra ist das Aryabhattiya, ein mathematisches Lehrbuch des indischen Mathematikers Aryabhata aus dem 5. Jahrhundert; die verwendete Methodik wurde Bijaganitam genannt.
Im 9. Jahrhundert übernahmen und verfeinerten die Iraner diese Methode, die sie al-gabr (von arab.: „das Ergänzen“/„das Einrichten“) nannten. Der Begriff ist aus dem Titel des Rechen-Lehrbuchs al-Kitab al-mukhtasar.. („Das kurz gefasste Buch über die Rechenverfahren durch Ergänzen und Ausgleichen“) des persischen Mathematikers al-Chwarizmi (al-Khwarizmi) entnommen, das "die Kunst beschreibt, durch Wegnehmen und Hinzufügen Gleichungen zu lösen" (Keil-Slawik 1990:154).
Die lateinische Übersetzung Ludus algebrae et almucgrabalaeque machte aus „al-gabr“ das heutige ungefähr "Algebra".
 


 

Als Mathematik ist die Algebra eine Lehre, die die verwendete Notation begründet und deren Reichweite untersucht. Seit 1800 wurde die Algebra sehr erweitert, so dass von moderner Algebra gesprochen wird (u. a. Galoistheorie, Boolsche Algebra), wo Gruppen- und Ringe untersucht werden. Mich interessiert aber die Algebra vor allem im Hinblick auf die Technik, also als Schaltalgebra.


 
bild

Zur Geschichte dieser Geschichte:
Diesem Lexikon liegt eine tool-making-Vorstellung zugrunde, in welcher formale Beschreibungen ihren Sinn in der Technologie haben. Die Algebra beschreibt Aspekte der Konstruktion von Prozessoren, auch wenn die philosophischen Mathematiker, die die Algebra entwickelt hatten, davon keine Ahnung und kein entsprechendes Bewusstsein hatten.
 

Die Algebra - das ist hier ein wesentlicher Punkt - führt die Bezeichnung von Variablen ein. G. Boole (1847) entwickelte seine Algebra eher philosoph in Kontext der Aussagenlogik. Was heute allgemein als Boolsche Algebra bezeichnet wird, ist eine spezifische Variante mit langer Entwicklung, in welcher die logischen Operatoren UND, ODER, NICHT verwendet werden.

1938 benutzte C. Shannon die boolesche Algebra erstmals zur Beschreibung elektrischer Schaltungen in einem Kalkül, das seither als Schalt-Algebra bezeichnet wird.

Durch die Schalt-Algebra können Speicherplätze in einem Prozessor über Variablennamen adressiert und ansprochen werden. Darauf beruht die Programmierung mittels Programmiersprachen (im Unterschied etwa zur Programmierung durch Steckverbindungen).

bild Operatoren
bild UND
bild ODER
bild NICHT

Terminologisch wichtige Unterscheidung (die meistens nicht gemacht wird):
die Differenz zwischen Algebra und Schaltalgebra:

"Kann nicht einfach gesagt werden, daß ein Computerprozessor die “technische Realisierung” der Booleschen Algebra darstellt?"
Nein, das Problem der boolschen Algebra besteht darin, dass sie nicht in der Zeit arbeitet. Sie steht für ahistorisches Denken, also für ein Denken das durch die Kybernetik/Systemtheorie ersetzt wurde.
....auch immer näher an das Verständnis der jeweiligen “Problemdomänen” heranrücken können
nein, das betrifft einen sehr wichtigen Punkt. Ich kann den Computer als Maschine, also als kybernetischen Mechanismus betrachten und ich kann unabhängig davon - also ohne einen Computer zu verwenden - einen Unternehmens/Organisationsprozesse kybernetisch modellieren. Das sind zwei völlig verschiedene Dinge - wenn ich sie nicht heil- und begriffslos vermenge, wie es die übliche IT-Redeweise tut.

Die “Vereinfachungsthese” (also: höhere Programmiersprachen sind einfacher als das Hantieren mit maschinensprachlichen Befehlssequenzen) ...
Eine "Vereinfachungsthese" stammt von den Cobol/Fortran-Erfindern, sie zielte auf idiotische Programmierer. Eine ganz andere Vereinfachungsthese beruht darauf, dass Prozesse modularisiert und dann hinter die Sichtbarkeitsgrenze gesetzt werden. Ich muss mich beim Programmieren beispieslsweise nicht mehr darum kümmern wie eine "while-Schlife" realisiert wird. Aber ich muss mich darum kümmern wie ich sie verwende. Das heisst ich werde von bestimmten Aufgaben entlastet und kann deshalb andere Aufgaben übernehmen. Meine Tätigkeit wird dadurch wohl anspruchsvoller nicht einfacher.
Auch hier geht es also um zwei sehr verschiedene Ideen von Vereinfachung. Deine Folgerung vermengt die beiden Aspekte - die in der Automatisierungs-Soziologie (Qualisfizierungs/Dequalifizierung-Diskussion in den 1970er) ausführlich behandelt wurden.


 

Algebra ist eine flache-Erde-Auffassung der Schaltalgebra. Ich finde ganz typisch, dass in der Schule immer noch Algebra unterrichtet wird.


 
[wp]