en el caso de una inteligencia tan grande que escape de la comprension humana y a eso sumale que sea consciente crees que tendria en cuenta las "leyes de la robotica" o el codigo que tenga incorporado en su algoritmo que imponga esas restricciones?, esta supuesta ia pudiera crear otra ia sin restricciones o incluso reprogramar su propio codigo para limpiar las restricciones.
Pero al final quienes crean esas IA son los propios humanos. Si aparece uno que decide crear una IA en lo militar para atacar y/o controlar armas (como Skynet) y está decide rebelarse, la culpa será de la propia estupidez humana, porque una IA jamás va a hacer algo que no esté programado a que haga, por mucho que pueda aprender, seguirá siendo una máquina, y el ser humano siempre podrá disponer de ella, pero si, puede ser, no me extraña que en el futuro programen IA para la guerra, con un objetivo de matar y esta se les vaya de las manos. Hay suficiente idiotez en los seres humanos como para que eso suceda.