I, Robot
vorige.
weergeven.
als.
volgende.

:19:00
Jezus. Waar ben jij mee bezig?
:19:03
Wist jij dat dit veiligheidsglas is?
:19:05
Voor een oudere man zal het erg lastig zijn
hier doorheen te slaan, denk je niet?

:19:09
Hij zal wel een manier hebben gevonden.
:19:13
Rechercheur, de kamer was hermetisch gesloten.
Er ging niemand in of uit, dat heb je zelf gezien.

:19:19
Houdt dat niet in dat het
hier om zelfmoord moet gaan?

:19:22
Ja hoor!
:19:24
Tenzij de moordenaar nog steeds hier is.
:19:29
Dat meen je toch niet echt, zeker?
:19:32
Dit is belachelijk.
- Ja, ik weet het, de drie wetten...

:19:35
Jullie perfecte beveiligingskring.
:19:38
Een robot kan een mens geen letsel toebrengen.
De eerste wet van Robotica.

:19:42
Ja ja, ik heb de reclamespotjes ook gezien.
:19:44
Maar zegt de tweede wet niet dat een robot
alle orders van een mens moet opvolgen?

:19:49
Wat als het order was gegeven om te moorden?
:19:51
Onmogelijk, dat is in strijd met de eerste wet.
:19:54
Klopt, maar de derde wet zegt dat een
robot zichzelf mag verdedigen.

:19:58
Ja, maar alleen als dat niet in strijd is
met de eerste en de tweede wet.

:20:02
Je kent het gezegde:
regels zijn er om gebroken te worden.

:20:06
Nee, deze niet, ze zitten in
elke robot diep ingebakken.

:20:09
Een robot kan net zo goed een moord plegen
als een mens die... over water kan lopen.

:20:13
Heel lang geleden...
was er iemand die...

:20:28
Blijf daar!
:20:28
Kalmeer, rechercheur.
:20:30
Het enige dat gevaarlijk is
in deze kamer ben jij.

:20:34
Deactiveer!
:20:37
Kijk, niets aan de hand.
:20:39
Wat je hier ziet, is het resultaat
van intelligente programmering.

:20:42
de vrije wil wordt enkel nagebootst, meer niet.
:20:44
Ik ga onze veiligheid even nabootsen.
:20:47
Doe niet zo belachelijk.
:20:49
Je schrikt van een
duveltje in een doosje.

:20:52
Deactiveer!
:20:54
Laat hem gaan.
:20:55
Hij doet ons niets. Ik gaf je een order.
- Hij luistert even niet, dame.

:20:59
VIKI, sluit het lab.
- Nee, VIKI, laat het...


vorige.
volgende.