托尼身為一個孤兒,他在外表上看起來樂觀豁達,幽默風趣,可很少有人知道其實他的精神非常的脆弱且敏感。▲-八▲-八▲-讀▲-書,.◇.o≧

    在經曆了紐約的齊塔瑞入侵大戰之後,親眼目睹了傳送門另一頭的無數外星人大軍,托尼感覺到了特別的無助和無力,因此想要保護自己親人、朋友和地球這個家園的他,決定開始研發一種新的戰爭機器。

    這項秘密的研發計劃,托尼並沒有通知神盾局,也沒有告訴陳重,而是找到了另一位天才---班納博士。

    這兩位世界上頂級的天才科學家聯合在了一起,以鋼鐵盔甲的戰鬥能力為標準,在這種新型的機器人的基礎上,加入了最強大的電腦ai人工智能,賦予了它保護地球和人類的思想。

    如果托尼在事先跟陳重商量的話,那麽見識過人工智能,並且知曉其中害處的陳重,肯定會極力的勸說和阻止托尼的這個計劃,可惜他並不知道,所以終於出現了一場慘烈的禍事。

    在這個漫威世界之中,人工智能出現的時間較晚,所以並沒有人探討過相關的利弊問題,可來自其他世界的陳重,卻早就知道這並不是一件好事。

    人工智能的出現,可以說給人類的生活帶來了非常大的便利,但同時也讓不少人為此擔憂:當機器具備了人類的情感、邏輯和判斷能力後,人類會不會被機器控製,從而導致人類的毀滅?

    為了人類的安全,所以那些相關領域的科學家們,製定了限製機器人和人工智能的三大定律。c八』c八』c讀』c書,.■.o↑

    第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。

    第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外。

    第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。

    除了這三條定律之後,此後又補充了一條零號定律:在保護人類整體利益的前提下,以下三條定律才存在。

    從表麵上看,有了這四條定律之後,擁有人工智能的機器人就絕對沒有可能反叛,進而傷害到人類,但事實真的會如此麽?

    答案當然是否定的,因為這三定律加上零定律,看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。

    可以說機器人和人工智能並沒有什麽問題,科技發展的本身也不是問題,但人類邏輯概念才是真正的問題。”

    鋼鐵俠托尼和綠巨人班納博士,他們兩人研製出的戰鬥型人工智能機器人,被命名為‘奧創’,在研發的時候,他們也毫不例外的為奧創設定了最基礎的幾條規則,其中大部分內容都跟地球上的四大定律差不多。

    奧創被製造出來的目的是為了守護世界的和平,但是它從一誕生就已經是個錯誤了。

    因為在奧創的認知和邏輯運算中,它很快的就判斷出一件事,既可以毀掉,並且又能毀滅地球和人類的絕對不是齊塔瑞大軍,也不是其他的邪惡人物,而是人類自己。

本章尚未完結,請點擊下一頁繼續閱讀---->>>