Gdybym miał prowadzić firmę budowlaną lub produkcję samochodów, czy cokolwiek innego, co mogłoby prowadzić do śmierci kogoś w pracy lub podczas korzystania z tego, nie jestem pewien, jak komfortowo czułbym się podejmując decyzje wykonawcze, które mogą mieć nieodwracalne konsekwencje. Zastanawiam się wtedy, czy praca w oprogramowaniu abstrahuje od tego typu ryzyk, jeśli w ogóle istnieją. Czy to oznacza, że podchodzimy do ryzyk bardziej lekko, czy też traktujemy je z należytą uwagą? Jak to się ma do blockchain? A co z AI?
347