Yksi ajatus, jonka pitäisi mielestäni olla melko rauhoittava tekoälyn turvallisuuden näkökulmasta, on se, että jos biglabin RL-ajo keksisi, kuinka murtautua ulos hiekkalaatikostaan ja muokata omaa koodiaan, aivan ensimmäinen asia, jonka se tekisi, olisi antaa itselleen ääretön palkkio koko ajan ja siten lopettaa parantaminen.