Chủ YếU Cạnh Hàng Đầu 16 câu hỏi khó mà mọi người cần hỏi về trí tuệ nhân tạo

16 câu hỏi khó mà mọi người cần hỏi về trí tuệ nhân tạo

Tử Vi CủA BạN Cho Ngày Mai

Chỉ có 9 công ty công nghệ khổng lồ ở Mỹ và Trung Quốc đứng sau phần lớn những tiến bộ trong lĩnh vực trí tuệ nhân tạo trên toàn thế giới. Trong cuốn sách mới của cô ấy, The Big Nine: Làm thế nào các Titan Công nghệ và Cỗ máy Tư duy của Họ có thể Làm cho Nhân loại Biến đổi (PublicAffairs, ngày 5 tháng 3), Amy Webb hình dung ra ba tương lai có thể có, từ lạc quan đến khải huyền, có thể là kết quả của những hành động chúng ta thực hiện - hoặc không làm - để kiểm soát sự phát triển của A.I. và định hình tác động toàn cầu của nó. Trong đoạn trích này, cô đặt ra một loạt câu hỏi đạo đức hóc búa mà loài người đang xây dựng A.I. hệ thống nên sử dụng để hướng dẫn công việc của họ.

Các quy tắc - thuật toán - mà mọi nền văn hóa, xã hội và quốc gia đang sống và đã từng sống, luôn được tạo ra bởi chỉ một vài người. Dân chủ, chủ nghĩa cộng sản, chủ nghĩa xã hội, tôn giáo, chủ nghĩa thuần chay, chủ nghĩa dân tộc, chủ nghĩa thực dân - đây là những cấu trúc mà chúng tôi đã phát triển trong suốt lịch sử để giúp định hướng các quyết định của chúng tôi. Ngay cả trong những trường hợp tốt nhất, chúng cũng không phải là bằng chứng trong tương lai. Các lực lượng công nghệ, xã hội và kinh tế luôn can thiệp và khiến chúng ta phải thích nghi.

Mười Điều Răn tạo thành một thuật toán nhằm tạo ra một xã hội tốt đẹp hơn cho những con người còn sống cách đây hơn 5.000 năm. Một trong những điều răn là phải nghỉ ngơi trọn một ngày trong tuần và không được làm bất cứ công việc gì vào ngày hôm đó. Trong thời hiện đại, hầu hết mọi người không làm việc theo ngày hoặc giờ chính xác từ tuần này sang tuần khác, vì vậy không thể không vi phạm quy tắc. Kết quả là, những người tuân theo Mười Điều Răn như một nguyên tắc hướng dẫn sẽ linh hoạt trong cách giải thích của họ, dựa trên thực tế của ngày làm việc dài hơn, luyện tập bóng đá và email. Thích ứng là tốt - nó hoạt động thực sự tốt cho chúng tôi và cho xã hội của chúng tôi, cho phép chúng tôi đi đúng hướng. Đồng ý về một bộ nguyên tắc cơ bản cho phép chúng tôi tối ưu hóa cho chính mình.

Sẽ không có cách nào để tạo ra một bộ lệnh cho A.I. Chúng tôi không thể viết ra tất cả các quy tắc để tối ưu hóa một cách chính xác cho con người, và đó là bởi vì trong khi máy móc suy nghĩ có thể nhanh và mạnh mẽ, chúng thiếu tính linh hoạt. Không có cách nào dễ dàng để mô phỏng các trường hợp ngoại lệ, hoặc thử và suy nghĩ trước từng trường hợp bất thường. Bất kể quy tắc nào có thể được viết ra, sẽ luôn có một trường hợp trong tương lai, trong đó một số người có thể muốn giải thích các quy tắc theo cách khác, hoặc bỏ qua chúng hoàn toàn, hoặc tạo ra các sửa đổi để quản lý một trường hợp không lường trước được.

Biết rằng chúng ta không thể viết một tập hợp các điều răn nghiêm ngặt để tuân theo, thay vào đó, chúng ta có nên tập trung sự chú ý vào con người đang xây dựng hệ thống không? Những người này - bộ lạc của A.I. - nên tự hỏi bản thân những câu hỏi khó chịu, bắt đầu bằng:

  • Động lực của chúng tôi cho A.I. là gì? Nó có phù hợp với lợi ích lâu dài tốt nhất của nhân loại không?
  • Những thành kiến ​​của riêng chúng ta là gì? Chúng ta đã thất bại trong việc đưa những ý tưởng, kinh nghiệm và giá trị nào vào bộ tộc của mình? Chúng ta đã bỏ qua ai?
  • Chúng ta đã đưa những người không giống mình vào với mục đích tạo nên tương lai của A.I. tốt hơn - hay đơn giản là chúng tôi đã đưa sự đa dạng vào nhóm của mình để đáp ứng các hạn ngạch nhất định?
  • Làm thế nào chúng ta có thể đảm bảo rằng hành vi của chúng ta là toàn diện?
  • Các tác động về công nghệ, kinh tế và xã hội của A.I. được hiểu bởi những người tham gia vào việc tạo ra nó?
  • Chúng tôi nên có những quyền cơ bản nào để thẩm vấn các tập dữ liệu, thuật toán và quy trình đang được sử dụng để thay mặt chúng tôi đưa ra quyết định?
  • Ai là người định nghĩa giá trị của cuộc sống con người? So với giá trị đó được cân nhắc là gì?
  • Khi nào và tại sao những người trong các bộ lạc của A.I. cảm thấy rằng họ có trách nhiệm giải quyết các tác động xã hội của A.I.?
  • Liệu sự lãnh đạo của tổ chức của chúng tôi và A.I của chúng tôi. bộ lạc phản ánh nhiều loại người khác nhau?
  • Những vai trò thương mại hóa A.I. đóng vai trò gì trong việc giải quyết các tác động xã hội của A.I.?
  • Chúng ta có nên tiếp tục so sánh A.I. đối với suy nghĩ của con người, hay tốt hơn là chúng ta nên phân loại nó thành một thứ gì đó khác biệt?
  • Có thể xây dựng A.I. mà nhận biết và phản ứng với cảm xúc của con người?
  • Có thể làm cho A.I. hệ thống có khả năng bắt chước cảm xúc của con người, đặc biệt nếu nó học hỏi từ chúng ta trong thời gian thực?
  • Đâu là điểm chấp nhận được mà tại đó tất cả chúng ta đều OK với A.I. phát triển mà không có con người trực tiếp trong vòng lặp?
  • Trong những trường hợp nào A.I. mô phỏng và trải nghiệm những cảm xúc thông thường của con người? Đau đớn, mất mát, cô đơn thì sao? Chúng ta có thể gây ra đau khổ đó không?
  • Chúng tôi đang phát triển A.I. để tìm kiếm sự hiểu biết sâu sắc hơn về bản thân? Chúng ta có thể sử dụng A.I. để giúp nhân loại sống một cuộc sống được kiểm tra hơn?

Có 9 công ty công nghệ lớn - 6 của Mỹ và 3 của Trung Quốc - chịu trách nhiệm lớn về tương lai của trí tuệ nhân tạo. Tại Hoa Kỳ, họ là Google, Microsoft, Amazon, Facebook, IBM và Apple ('G-MAFIA'). Ở Trung Quốc, đó là BAT: Baidu, Alibaba và Tencent.

G-MAFIA đã bắt đầu giải quyết vấn đề về các nguyên tắc hướng dẫn thông qua các nhóm nghiên cứu và học tập khác nhau. Trong Microsoft có một nhóm được gọi là FATE - vì Công bằng, Trách nhiệm giải trình, Minh bạch và Đạo đức trong A.I. Sau vụ bê bối Cambridge Analytica, Facebook đã thành lập một nhóm đạo đức đang phát triển phần mềm để đảm bảo rằng A.I. hệ thống tránh thiên vị. (Đáng chú ý, Facebook đã không đi xa đến mức tạo ra một hội đồng đạo đức tập trung vào A.I.) DeepMind đã tạo ra một nhóm đạo đức và xã hội. IBM xuất bản thường xuyên về đạo đức và A.I. Sau một vụ bê bối tại Baidu - công cụ tìm kiếm ưu tiên các tuyên bố y tế gây hiểu lầm từ một bệnh viện do quân đội điều hành, nơi điều trị dẫn đến cái chết của một sinh viên 21 tuổi - Giám đốc điều hành Baidu Robin Li thừa nhận rằng nhân viên đã thực hiện thỏa hiệp vì lợi ích tăng trưởng thu nhập của Baidu và hứa sẽ tập trung vào đạo đức trong tương lai.

Big Nine tạo ra các nghiên cứu về đạo đức và sách trắng, nó triệu tập các chuyên gia để thảo luận về đạo đức và tổ chức các hội thảo về đạo đức - nhưng nỗ lực đó không đủ ăn nhập với các hoạt động hàng ngày của các nhóm khác nhau làm việc trên A.I.

Big Nine's A.I. các hệ thống ngày càng truy cập nhiều hơn vào dữ liệu trong thế giới thực của chúng tôi để xây dựng các sản phẩm thể hiện giá trị thương mại. Các chu kỳ phát triển đang nhanh hơn để bắt kịp với kỳ vọng của các nhà đầu tư. Chúng tôi đã sẵn sàng - nếu vô tình - những người tham gia vào một tương lai được tạo ra một cách vội vàng và không trả lời trước tất cả những câu hỏi đó. Như A.I. hệ thống tiến bộ và nhiều cuộc sống hàng ngày được tự động hóa, chúng ta càng có ít quyền kiểm soát hơn đối với các quyết định được đưa ra và đối với chúng ta.

Amy Webb sẽ xuất hiện tại Nhà sáng lập Inc. ở Austin vào ngày 11 tháng 3.