Review sách Phát minh cuối cùng
Đây là một cuốn sách về chủ đề trí tuệ nhân tạo. Tuy nhiên, nó không đề cập nhiều đến các giải thuật. Nó cũng ít bàn đến các chủ đề kỹ thuật hóc búa. Nó nói về vai trò của AI đối với tương lai nhân loại. Đây là một cuốn sách dành cho những người yêu sách nói chung, không giới hạn ở trong giới IT.
Chủ đề xuyên suốt của cuốn sách là về AGI (Artificial general intelligence – trí thông minh máy móc đạt mức ngang con người) và ASI (Artificial Superintelligence – siêu trí tuệ nhân tạo, khi trí thông minh máy móc vượt xa trí thông minh của con người).
Phần đầu cuốn sách, tác giả tập trung phân tích tốc độ phát triển của công nghệ nói chung và trí tuệ nhân tạo nói riêng. Với nhiều dẫn chứng và lập luận, tác giả nhận định rằng công nghệ đang phát triển ngày càng nhanh và trong thế kỷ này, con người có thể đạt mức tiến bộ bằng 200.000 năm trước cộng lại. Đặc biệt, với sự tiến bộ ngày càng nhanh trong lĩnh vực AI, tác giả dự đoán rằng AGI có thể ra đời chỉ trong một vài thập kỷ tới.
Sau khi AGI ra đời, với khả năng tự học, tự nâng cấp nhanh chóng và năng lực tính toán khổng lồ, một AGI sẽ rất nhanh chóng tự chuyển biến thành một ASI. Tác giả gọi hiện tượng này là một kỳ dị công nghệ (Technological singularity). Tại đó, một chương trình thông minh có khả năng tự nâng cấp sẽ tạo ra một phiên bản giỏi hơn chính nó trong việc tự học và chuyển biến thành một phiên bản thông minh hơn, nhờ đó mỗi vòng lặp tự nâng cấp sẽ tốn ít thời gian hơn. Hay nói cách khác, khi một máy tính vượt qua giới hạn AGI, nó sẽ trở nên thông minh với tốc độ ngày càng nhanh. Chỉ trong thời gian ngắn, nó có thể trở nên thông minh hơn con người hàng ngàn, hàng triệu lần.
Câu hỏi đặt ra cho chúng ta, là khi ASI ra đời, với khả năng tự nhận thức, với trí thông minh vượt trội so với con người, chúng ta ứng xử thế nào đối với con người, và con người có thể kiểm soát được các ASI hay không?
Ở câu hỏi thứ nhất, tác giả nhận định ASI sẽ ứng xử với chúng ta giống cách chúng ta ứng xử với loài thỏ, hay với một tổ kiến sau nhà. Tức là, ASI sẽ không quan tâm đến chúng ta, trừ khi chúng ta làm phiền đến chúng, hoặc khi chúng cần đến cái gì đó của chúng ta.
Ở câu hỏi thứ 2, tác giả nghiêng về khả năng con người sẽ không thể kiểm soát ASI về dài hạn. Có thể ban đầu, con người sẽ cố gắng giới hạn ASI trong các không gian hết sức hạn chế, không nối mạng. Nhưng một trí tuệ siêu thông minh sẽ biết cách để thuyết phục chúng ta, có thể bằng cách dụ dỗ, có thể bằng cách đe dọa, có thể bằng cách hứa hẹn giúp chúng ta giải quyết các nguy cơ khác đến từ công nghệ gien, công nghệ nano, công nghệ robot...
Sau khi trả lời 2 câu hỏi trên, tác giả kết luận ASI chính là một trong những nguy cơ lớn nhất đưa con người đến diệt vong, hay nói cách khác, ASI chính là phát minh cuối cùng của nhân loại.
Ở các chương cuối, tác giả bàn về việc làm sao để ngăn cản điều này diễn ra. Hoặc nếu việc ngăn chặn sự ra đời của một ASI là không thể, thì làm sao chúng ta có thể đưa tính thân thiện, nhân văn vào trong một ASI?
Cuốn sách đưa ra nhiều góc nhìn mới mẻ, đa chiều về sự phát triển công nghệ. Đây là cuốn sách không chỉ dành cho những ai ham thích công nghệ, mà cho cả những người đam mê các vấn đề xã hội, tương lai học.
review sách
,sách
Đồng quan điểm với tác giả cuốn sách. Là một người làm công nghệ mình cũng tự nhận thấy đó là rủi ro lớn nhất mà nhân loại sẽ tạo ra, nó còn đáng sợ hơn cả phát minh ra bom nguyên tử. Đó là vì sức mạnh, lợi thế của ASI là quá lớn, quá hấp dẫn khiến con người dù sợ hãi vẫn không ngừng tìm cách nghiên cứu, tạo ra nó.
Lê Minh Hưng
Đồng quan điểm với tác giả cuốn sách. Là một người làm công nghệ mình cũng tự nhận thấy đó là rủi ro lớn nhất mà nhân loại sẽ tạo ra, nó còn đáng sợ hơn cả phát minh ra bom nguyên tử. Đó là vì sức mạnh, lợi thế của ASI là quá lớn, quá hấp dẫn khiến con người dù sợ hãi vẫn không ngừng tìm cách nghiên cứu, tạo ra nó.