:19:00
Jezus. Waar ben jij mee bezig?
:19:03
Wist jij dat dit veiligheidsglas is?
:19:05
Voor een oudere man zal het erg lastig zijn
hier doorheen te slaan, denk je niet?
:19:09
Hij zal wel een manier hebben gevonden.
:19:13
Rechercheur, de kamer was hermetisch gesloten.
Er ging niemand in of uit, dat heb je zelf gezien.
:19:19
Houdt dat niet in dat het
hier om zelfmoord moet gaan?
:19:22
Ja hoor!
:19:24
Tenzij de moordenaar nog steeds hier is.
:19:29
Dat meen je toch niet echt, zeker?
:19:32
Dit is belachelijk.
- Ja, ik weet het, de drie wetten...
:19:35
Jullie perfecte beveiligingskring.
:19:38
Een robot kan een mens geen letsel toebrengen.
De eerste wet van Robotica.
:19:42
Ja ja, ik heb de reclamespotjes ook gezien.
:19:44
Maar zegt de tweede wet niet dat een robot
alle orders van een mens moet opvolgen?
:19:49
Wat als het order was gegeven om te moorden?
:19:51
Onmogelijk, dat is in strijd met de eerste wet.
:19:54
Klopt, maar de derde wet zegt dat een
robot zichzelf mag verdedigen.
:19:58
Ja, maar alleen als dat niet in strijd is
met de eerste en de tweede wet.
:20:02
Je kent het gezegde:
regels zijn er om gebroken te worden.
:20:06
Nee, deze niet, ze zitten in
elke robot diep ingebakken.
:20:09
Een robot kan net zo goed een moord plegen
als een mens die... over water kan lopen.
:20:13
Heel lang geleden...
was er iemand die...
:20:28
Blijf daar!
:20:28
Kalmeer, rechercheur.
:20:30
Het enige dat gevaarlijk is
in deze kamer ben jij.
:20:34
Deactiveer!
:20:37
Kijk, niets aan de hand.
:20:39
Wat je hier ziet, is het resultaat
van intelligente programmering.
:20:42
de vrije wil wordt enkel nagebootst, meer niet.
:20:44
Ik ga onze veiligheid even nabootsen.
:20:47
Doe niet zo belachelijk.
:20:49
Je schrikt van een
duveltje in een doosje.
:20:52
Deactiveer!
:20:54
Laat hem gaan.
:20:55
Hij doet ons niets. Ik gaf je een order.
- Hij luistert even niet, dame.
:20:59
VIKI, sluit het lab.
- Nee, VIKI, laat het...