:24:00
Wieviel wollen Sie?
:24:03
Ich verstehe nicht recht.
:24:05
Wir müssen unsere ganze Produktion
zurückrufen, wenn das jemand erfährt.
:24:10
Wir sind bei den Leuten zuhause,
bei ihren Kindern.
:24:13
Verhält es sich so, wie Sie sagen,
könnte es auch Amok laufen.
:24:17
Man ist nicht fähig,
an einem Ock zu laufen.
:24:21
Schön. Wenn ich lhnen Andrew überlasse,
was geschieht dann?
:24:24
Sie werden ihn zerlegen, nicht?
:24:28
Vorsichtig, ja.
Wir müssten seine Leiterbahnen verfolgen,
:24:33
sein Positronenhirn ersetzen und...
:24:36
es...
:24:38
ihn wieder zusammensetzen
und ihn lhnen wie neu zurückgeben.
:24:43
Diese Neuronen-Leiterbahnen
sind sicher sehr empfindlich.
:24:46
Könnte nicht im Lauf dieser Operation...
:24:49
etwas schief gehen?
:24:52
Wir würden alles tun, das zu vermeiden.
:24:55
Falls doch etwas geschähe,
würden wir Andrew natürlich ersetzen.
:25:00
Natürlich.
:25:02
Obwohl er einzigartig und unersetzlich ist.
:25:07
"Er." "Sein."
:25:11
Ein natürlicher lrrtum.
Er hat menschliche Züge, deshalb...
:25:14
sehen Sie in einem mechanischen Fehler
Exzentrizität und Menschlichkeit.
:25:20
Es ist ein Haushaltsgerät,
und Sie behandeln es wie einen Menschen.
:25:25
Gehen wir, Andrew.
:25:27
Bitte, überlegen Sie es sich noch mal,
Mr. Martin.
:25:29
Reden Sie mit lhrer Frau.
Nennen Sie einen Preis!
:25:34
Hören Sie.
:25:36
Individualität hat keinen Preis.
:25:38
Komme, was will, er ist mein Roboter,
:25:41
und Sie werden ihn nicht anfassen.
Verstanden?
:25:47
In guten Zeiten.
:25:48
Früher oder später werden Sie ihn
zur Reparatur bringen.
:25:59
-Ich traf eine Entscheidung.
-Ja, Sir?