Wenn ich ein Bauunternehmen oder eine Autofabrik oder irgendetwas anderes leiten müsste, das zu einem Todesfall am Arbeitsplatz oder bei der Nutzung führen könnte, bin ich mir nicht sicher, wie wohl ich mich dabei fühlen würde, Entscheidungen zu treffen, die irreparable Folgen haben können. Dann frage ich mich, ob die Arbeit in der Software diese Arten von Risiken abstrahiert, falls sie überhaupt existieren. Bedeutet das, dass wir den Risiken leichter gegenüberstehen oder geben wir ihnen die angemessene Berücksichtigung? Wie gilt das für Blockchain? Was ist mit KI?
479