I, Robot
föregående.
visa.
bokmärken.
nästa.

:19:00
Herregud, vad gör du?
:19:03
Visste du att
det var säkerhetsglas?

:19:05
Ganska svårt för en gammal man
att kasta sig ut genom det, eller hur?

:19:09
Han lyckades tydligen.
:19:13
Konstapeln,
dörren var säkerhetslåst.

:19:16
Ingen kom eller gick,
det såg du ju själv.

:19:20
Betyder inte det att det
här måste vara självmord?

:19:22
Jo.
:19:24
Om inte mördaren
fortfarande är kvar härinne.

:19:29
Du skämtar va?
:19:32
-Det här är löjligt.
-Ja, jag vet. De tre lagarna.

:19:35
En perfekt cirkel av skydd.
:19:38
En robot kan inte skada en människa.
Det är robotteknikens första lag.

:19:42
Ja, jag vet, jag har sett er reklam.
:19:44
Men säger inte den andra lagen
att robotar måste följa alla ordrar-

:19:48
-som ges av en människa.
:19:49
Tänk om den ges ordern att döda.
:19:51
Det är omöjligt, det vore i
konflikt med den första lagen.

:19:54
Just det, men den tredje lagen säger
att en robot får försvara sig själv.

:19:58
Ja, men bara om den handligen inte
är i konflikt med de andra två.

:20:02
Du vet vad de säger, lagar
är till för att brytas.

:20:06
Nej, inte de här lagarna. De
är hårdkodade i alla robotar.

:20:09
En robot kan inte utföra ett mord
mer än en människa kan gå på vatten.

:20:13
Jamen, du vet det fanns den
här killen för länge sedan.

:20:28
-Stanna!
-Lugna er, konstapeln.

:20:31
Det enda farliga i
det här rummet är du.

:20:34
Avaktivera.
:20:38
Se, det är lugnt.
:20:40
Det du tittar på är resultatet
av smart programmering.

:20:42
En imitation av fri vilja,
inget annat.

:20:45
Låt oss göra en imitation
av att skydda våra liv.

:20:47
Var inte absurd.
:20:49
Du skrämdes av gubben i lådan...
:20:52
Avaktivera.
:20:54
Låt honom vara.
:20:55
Han kommer inte skada oss,
jag gav dig en order.

:20:57
Han lyssnar inte just nu.
:20:59
-VIKI, lås laboratoriet.
-Nej, VIKI.


föregående.
nästa.