El 14/01/08, Carlos E. R. escribió:
Bueno, la idea era que una máquina sería más justa que una persona, porque no tendría intereses ni podría sobornarse. Aplicaría las normas y punto. Friamente - y esa frialdad es también su pega.
El concepto de "justo" que tiene el ser humano es... humano. Y por tanto, imperfecto, variable y altamente voluble, dependiente y cambiable, limitado a su percepción de "justicia". El sistema inteligente (vamos a llamarlo "robot"), por contra, determina su concepto de "justicia" basándose en variables que un ser humano ni siquiera es capaz de contemplar (ni como hipótesis) debido a sus propias limitaciones. Por tanto, es comprensible que el humano no entienda el alcance del concepto de justicia que determina el sistema inteligente y sencillamente piensa que es... "injusto" o, como dices, "frío" :-).
Si lo planteas con robots asimovianos, yo tampoco. Pero Asimov te diría que no puede ser, en sus mundos eso no pasaba - salvo con Daneel y su cuarta ley.
No olvides que las leyes de la robótica que Asimov ideó pertenecen a la "ciencia ficción" y como lectura puede resultar entretenido ;-). La realidad, entiendo que será muy distinta y los sistemas inteligentes se equipararán a los humanos... ... ¿Un humano puede "ir contra" contra otro humano? Es lógico pues, que un robot también pueda hacerlo. Ese "nivel de dependencia" (el humano sobre la máquina) que se pretende establecer con esas 3 leyes, seguramente, en un futuro, deje de contemplarse. Saludos, -- Camaleón --------------------------------------------------------------------- Para dar de baja la suscripción, mande un mensaje a: opensuse-es+unsubscribe@opensuse.org Para obtener el resto de direcciones-comando, mande un mensaje a: opensuse-es+help@opensuse.org