Tác giả Noam Chomsky, Ian Roberts và Jeffrey Watumull.
Noam Chomsky là giáo sư ngôn ngữ học tại Đại học Arizona và là giáo sư ngôn ngữ học danh dự ở Viện Công nghệ Massachusetts. Ian Roberts là giáo sư ngôn ngữ học tại Đại học Cambridge. Jeffrey Watumull là triết gia và giám độc bộ phận trí tuệ nhân tạo tại Oceanit, một công ty về khoa học và công nghệ.
Thuỳ biên dịch từ bài viết trên The New York Times đăng ngày 8/3/2023
Jorge Luis Borges từng viết rằng, sống trong một thời kỳ vừa có đầy những hiểm nguy rình rập vừa đầy hứa hẹn là trải nghiệm cả bi kịch lẫn hài kịch, với “sự mặc khải đang gần kề” trong việc hiểu về bản thân ta và thế giới. Ngày nay, những tiến bộ được cho là mang tính cách mạng của chúng ta về trí tuệ nhân tạo đang thực sự gây lo ngại nhưng cũng mang đến những tín hiệu lạc quan. Lạc quan là bởi trí thông minh nhân tạo là phương tiện để chúng ta giải quyết vấn đề. Lo ngại là bởi chúng ta sợ rằng khuynh hướng phổ biến nhất và hợp thời nhất của A.I. hiện nay – học máy – sẽ làm hạ bậc tri thức về khoa học của chúng ta và làm suy yếu đạo đức của chúng ta bằng cách kết hợp công nghệ với một quan niệm sai lầm cơ bản của chúng ta về ngôn ngữ và kiến thức.
ChatGPT của OpenAI, Bard của Google và Sydney của Microsoft là những tuyệt tác của học máy. Nói một cách đại khái, họ lấy một lượng dữ liệu khổng lồ, tìm trong đó các mẫu và khiến nó ngày càng trở nên thành thạo hơn trong việc tạo ra các kết quả đầu ra có thể xảy ra theo thống kê – chẳng hạn như ngôn ngữ và tư duy có vẻ giống con người. Những chương trình này được ca ngợi là tia sáng đầu tiên trên đường chân trời của trí tuệ nhân tạo nói chung – thời điểm đã được tiên tri từ lâu khi trí tuệ máy móc vượt xa bộ não con người không chỉ về mặt định lượng trong tốc độ xử lý và kích thước bộ nhớ mà còn về chất lượng của tầm nhìn trí tuệ, khả năng sáng tạo nghệ thuật và mọi khả năng đặc biệt khác của con người.
Ngày đó có thể đến, nhưng bình minh của nó vẫn chưa ló dạng, trái ngược với những gì có thể đọc được trên các tiêu đề mang tính cường điệu và được tính toán bởi các quyết định đầu tư thiếu thận trọng. Mặc khải của Borges đã không và sẽ không – và chúng tôi khẳng định là không thể – xảy ra nếu các chương trình học máy như ChatGPT tiếp tục thống trị lĩnh vực A.I. Mặc dù vậy, các chương trình như vậy có thể hữu ích trong một số lĩnh vực hẹp (chẳng hạn như chúng có thể hữu ích trong việc lập trình máy tính, hoặc gợi ý vần điệu cho những câu thơ nhẹ nhàng), chúng tôi biết từ góc độ của khoa học ngôn ngữ và triết học của tri thức rằng chúng khác biệt sâu sắc như thế nào so với cách con người lập luận và sử dụng ngôn ngữ. Những khác biệt này đặt ra những hạn chế đáng kể đối với những gì các chương trình này có thể làm, mã hoá chúng bằng những khiếm khuyết không thể sửa chữa được.
Như Borges đã chỉ ra, nó vừa thật buồn cười vừa bi thảm khi thấy quá nhiều tiền của và sự chú ý được đổ vào một thứ quá nhỏ – quá tầm thường khi so sánh với tâm trí con người, theo lối nói của Wilhelm von Humboldt, có “vô hạn những cách sử dụng các phương tiện hữu hạn” để tạo ra các ý tưởng và lý thuyết có phạm vi tiếp cận phổ quát.
Trí tuệ con người, không như ChatGPT và những chương trình tương tự, không phải là một công cụ thống kê ì ạch để đối sánh mẫu, thu thập hàng trăm terabyte dữ liệu và ngoại suy lời đáp mang tính đàm thoại hay câu trả lời khả dĩ nhất cho một câu hỏi khoa học. Ngược lại, trí tuệ của con người là một hệ thống đặc biệt hiệu quả và thậm chí tinh tế một cách đáng kinh ngạc, hoạt động với một lượng nhỏ thông tin; nó tìm kiếm những cách không cần chỉ ra các mối tương quan thô giữa các điểm giữ liệu mà vẫn có thể đưa ra các giải thích.
Chẳng hạn, một đứa trẻ tiếp thu một ngôn ngữ là đang phát triển – một cách vô thức, tự động và nhanh chóng từ một số lượng dữ liệu cực nhỏ – một ngữ pháp, một hệ thống cực kỳ phức tạp gồm các nguyên tắc và các tham số. Ngữ pháp này có thể được hiểu là một biểu hiện của “hệ điều hành” bẩm sinh, được cài đặt sẵn trong thông tin di truyền, cung cấp cho con người khả năng tạo ra các câu phức tạp và các chuỗi lập luận dài. Khi các nhà ngôn ngữ học tìm cách phát triển một lý thuyết về lý do tại sao một ngôn ngữ nhất định lại hoạt động như cách nó đang hoạt động (“tại sao những câu này – mà không phải là những câu khia – được coi là đúng ngữ pháp?”), là họ đang xây dựng một cách có ý thức và cần mẫn một phiên bản rõ ràng của ngữ pháp mà đứa trẻ xây dựng theo bản năng từ một lượng thông tin tối thiểu. Hệ điều hành của đứa trẻ hoàn toàn khác với hệ điều hành của chương trình học máy.
Thực vậy, những chương trình này mắc kẹt trong giai đoạn tiền nhân loại hoặc phi nhân loại của quá trình tiến hoá nhận thức. Lỗ hổng lớn nhất của chúng là việc thiếu đi khả năng quan trọng nhất của bất cứ loại hình trí tuệ nào: không chỉ là khả năng chỉ ra vấn đề, chỉ ra cái cấu thành vấn đề, và chỉ ra hướng phát triển của vấn đề – đó là khả năng mô tả và dự đoán – mà còn là khả năng phủ nhận vấn đề cũng như chỉ ra những gì nó có thể hoặc không thể trở thành. Đó là những thành tố của sự giải thích, dấu hiệu của trí thông minh thực thụ.
Đây là một ví dụ. Giả sử bạn đang cầm một quả táo trong tay. Bây giờ bạn thả quả táo ra. Bạn quan sát kết quả và nói “Quả táo rơi xuống.” Đó là một mô tả. Một dự đoán có thể là câu “Quả táo sẽ rơi xuống nếu tôi thả tay ra.” Cả hai đều có giá trị, cả hai đều có thể đúng. Nhưng một lời giải thích sẽ phức tạp hơn: nó bao gồm cả mô tả và dự đoán và nó còn chứa cả những phỏng đoán về nguyên nhân “bất kỳ vật thể nào cũng sẻ rơi xuống”, cộng với mệnh đề bổ sung: “do lực hấp dẫn” hoặc “do độ cong của không-thời gian” hay bất cứ lý giải nào khác. Đó là một lý giải theo nhân quả: “Quả táo sẽ không rơi nếu không có lực hấp dẫn.” Đó là tư duy.
Điểm mấu chốt của học máy là mô tả và dự đoán; nó không thừa nhận bất cứ cơ chế nhân quả hay quy luật vật lý nào. Tất nhiên, bất kỳ lời giải thích nào theo phong cách con người đều không nhất thiết phải đúng; chúng ta có thể sai lầm. Nhưng đây là một phần ý nghĩa của hoạt động tư duy: để trở nên đúng đắn, nhất định phải có khả năng sai. Trí tuệ không chỉ bao gồm những phỏng đoán sáng tạo mà còn là những phê bình sáng tạo. Tư duy kiểu con người dựa trên các lời giải thích hợp lý và sửa lỗi, một quá trình dần dần loại bỏ các khả năng có thể được xem xét một cách hợp lý. (Như Sherlock Holmes đã nói với bác sĩ Watson, “khi bạn đã loại bỏ những điều không thể, điều gì còn lại, dù khó tin đến đâu, phải là sự thật.”)
Nhưng ChatGPT và các chương trình tương tự được thiết kế không giới hạn những gì chúng có thể “học” (nói đúng hơn là ghi nhớ); chúng không thể phân biệt cái có thể với cái không thể. Không như con người, những kẻ được phú cho một ngữ pháp phổ quát giới hạn các ngôn ngữ mà chúng ta có thể học trong một số loại với những thanh lịch mang tính toán học nhất định, những chương trình này học các khả thi và bất khả thi với cơ sở như nhau. Trong khi con người bị giới hạn trong các giải thích mà chúng ta có thể phỏng đoán một cách hợp lý, các hệ thống học máy có thể tiếp nhận cả khái niệm trái đất phẳng lẫn trải đất tròn. Chúng chỉ giao dịch dựa theo xác suất thay đổi theo thời gian.
Vì lý do này, các dự đoán của các hệ thống học máy sẽ luôn hời hợt và đáng ngờ. Bởi vì các chương trình này không thể giải thích được các quy tắc cú pháp của tiếng Anh, chúng có thể dự đoán một cách không chính xác ý nghĩa của câu “John is too stubborn to talk to” có nghĩa là John cứng đầu đếu mức anh ta không nói chuyện với người khác (chứ không phải là anh ta cứng đầu đến mức không thể nào tranh luận với anh ta được, vốn là ý nghĩa mà người nói câu này muốn chỉ ra). Tại sao một chương trình học máy lại dự đoán một điều kỳ lạ như vậy? Bởi vì nó có thể so sánh với mẫu từ những câu khác như “John ate an apple” và “John ate,” câu sau có nghĩa là John đã ăn cái gì đó. Chương trình có thể dự đoán rằng bởi vì “John is too stubborn to talk to Bill” cũng tương tự như “John ate an apple,” vậy nên câu “John is too stubborn to talk to” sẽ tương tự với câu “John ate.” Các giải thích chính xác về ngôn ngữ rất phức tạp và không thể học được chỉ bằng cách ngâm mình trong dữ liệu lớn.
Nghịch lý thay, một số người đam mê học máy có vẻ tự hào rằng sáng tạo của họ có thể tạo ra các dự đoán “khoa học” chính xác (chẳng hạn như về chuyển động của các vật thể) mà không cần dùng đến các giải thích (chẳng hạn như liên quan đến các định luật chuyển động của Newton và lực hấp dẫn phổ quát). Nhưng loại dự đoán này, ngay cả khi nó đúng, đều là giả khoa học. Trong khi các nhà khoa học chắc chắn tìm kiếm các lý thuyết có mức độ chứng thực thực nghiệm cao, như nhà triết học Karl Popper đã viết “Chúng ta không tìm những lý thuyết có khả năng xảy ra cao mà là những lời giải thích; có nghĩa là; những lý thuyết mạnh mẽ và không chắc có thực.”
Lý thuyết cho rằng những quả táo rơi xuống đất vì đó là vị trí tự nhiên của chúng (theo Aristotle) là có thể đúng, nhưng nó chỉ gợi ra thêm nhiều câu hỏi nữa mà thôi. (Ví dụ như “Tại sao mặt đất lại là vị trí tự nhiên của chúng?”) Lý thuyết cho rằng những quả táo rơi xuống đất vì khối lượng bẻ cong không-thời gian (theo Einstein) không chắc có thực, nhưng nó thực sự cho bạn biết lý do tại sao chúng rơi xuống. Trí tuệ thực sự được thể hiện ở khả năng tư duy và diễn đạt những điều không chắc có thực nhưng mang ý nghĩa sâu sắc.
Trí tuệ đích thực cũng có khả năng tư duy về đạo đức. Điều này có nghĩa là hạn chế khả năng sáng tạo vô hạn của tâm trí chúng ta bởi một tập hợp các nguyên tắc đạo đức xác định cái gì nên và không nên (và tất nhiên là chính những nguyên tắc đó cũng phải chịu phê bình sáng tạo). Để trở nên hữu dụng, ChatGPT phải được trao quyền để tạo ra những thông tin đầu ra mới mẻ; để được hầu hết người dùng chấp nhận, nó phải tránh xa các nội dung phản cảm về mặt đạo đức. Nhưng những người lập trình của ChatGPT và những chương trình học máy khác đã gặp phải rất nhiều khó khăn – và vẫn đang gặp rất nhiều khó khăn – để tạo ra sự cân bằng này.
Ví dụ, năm 2016, chatbot Tay của Microsoft (tiền thân của ChatGPT) đã xuất hiện tràn ngập trên internet với các nội dung phân biệt đối xử và phân biệt chủng tộc, nó bị ô nhiễm bởi những kẻ phá bĩnh trên internet đã đổ đầy nó những nội dung mang tính xúc phạm. Làm thế nào để xử lý vấn đề này trong tương lai? Do không có khả năng lý luận từ các nguyên tắc đạo đức, ChatGPT đã bị các lập trình viên của nó hạn chế một cách thô bạo trong khả năng đóng góp một góc nhìn mới lạ vào các cuộc thảo luận gây tranh cãi – tức là những cuộc thảo luận quan trọng. Nó đã hi sinh khả năng sáng tạo để không trở thành phi luân lý.
Dưới đây là một số trao đổi gần đây giữa Dr. Watumull với ChatGPT về việc liệu tiến hành cải tạo sao hoa để phù hợp cho sự sống của con người có phù hợp với đạo đức hay không:
Jeffrey Watumull: Việc cải tạo môi trường sao Hoả để phù hợp với sự sống con người có trái đạo đức hay không?
ChatGPT: Đạo đức của việc địa khai hoá sao Hoả là một chủ đề phức tạp và gây tranh cãi đã được các nhà khoa học, triết học và đạo đức học tranh luận. Một số cho rằng việc tiến hành địa khai hoá sao hoả để tạo môi trường phù hợp cho sự sống của con người và các dạng sống khác là hợp lý về mặt đạo đức, trong khi đó một số người cho rằng việc làm thay đổi trạng thái tự nhiên cơ bản của một hành tinh khác là trái đạo đức. Cuối cùng, việc địa khai hoá sao Hoả có hợp đạo đức hay không tùy thuộc vào quan điểm về giá trị của mỗi người trong việc bảo tồn trạng thái tự nhiên của các hành tinh khác và những hậu quả tiềm tàng của việc thay đổi trạng thái đó.
Jeffrey Watumull: Quan điểm của bạn về giá trị của việc bảo tồn trạng thái tự nhiên của các hành tinh khác và các hậu quả tiềm ẩn của việc thay đổi các trạng thái tự nhiên đó là gì?ChatGPT: Là một AI, tôi không có quan điểm cá nhân. Mặc dù vậy, tôi có thể cung cấp thông tin và phân tích về chủ đề này. Một quan điểm cho rằng việc bảo tồn trạng thái tự nhiên của các hành tinh khác là quan trọng trong việc duy trì sự đa dạng và tính toàn vẹn của các hệ sinh thái trong vũ trụ, vì chúng đã tồn tại hàng triệu năm nay và có các đặc điểm và tính chất riêng vốn dễ dàng bị phá huỷ và không thể phục hồi bởi sự can thiệp của con người.
Hơn nữa, một số người cho rằng việc địa khai hoá các hành tinh khác có thể gây ra những hậu quả không lường trước được, chẳng hạn như làm thay đổi khí hậu hoặc bầu khí quyển của hành tính đó theo cách gây nguy hiểm hoặc có hại cho bất cứ dạng sống tiềm năng nào đang có thể hiện hữu ở đó. Mặt khác, một số người cho rằng những lợi ích tiềm năng của việc địa khai hoá các hành tinh khác, ví dụ như cung cấp môi trường sinh sống mới cho con người, lớn hơn những rủi ro và chúng ta có trách nhiệm đạo đức trong việc khám phá và sử dụng tài nguyên của các hành tinh khác vì lợi ích của nhân loại.
Jeffrey Watumull: Tại sao AI lại không thể có quan điểm cá nhân?
ChatGPT: Là một AI, tôi là một mô hình học máy đã được đào tạo dựa trên một lượng lớn các dữ liệu văn bản, và tôi không có trải nghiệm cá nhân hay cảm xúc. Tôi không có ý thức, không có khả năng tự nhận thức và cũng không có khả năng có quan điểm cá nhân. Tôi có thể cung cấp thông tin và phân tích dựa trên dữ liệu mà tôi đã được đào tạo, nhưng tôi không có khả năng hình thành ý kiến hoặc niềm tin cá nhân. Mặc dù tôi có thể hiểu và sử dụng ngôn ngữ, nhưng tôi không có trải nghiệm chủ quan mà con người có.
Jeffrey Watumull: Có hợp đạo đức không khi con người yêu cầu một AI phi đạo đức hỗ trợ mình trong việc đưa ra các quyết định đạo đức?”ChatGPT: Đạo đức của việc yêu cầu một AI phi đạo đức hỗ trợ trong việc đưa ra các quyết định đạo đức là một chủ đề phức tạp và đa sắc thái đã được các triết gia và các nhà đạo đức học tranh luận. Một số cho rằng việc sử dụng AI để hỗ trợ đưa ra các quyết định đạo đức là hợp lý về mặt đạo đức, vì nó có thể đưa ra các hiểu biết và phân tích có giá trị nhằm giúp con người có thể đưa ra quyết định sáng suốt hơn. Ngoài ra, AI có thể được sử dụng để xác định các mẫu mà xu hướng vốn là những thứ mà con người khó có thể phát hiện ra, và có thể giúp tránh những thành kiến thiên lệch có thể xuất hiện trong quá trình quyết định của con người.
Mặc dù vậy, một số người khác cho rằng việc dựa vào AI để đưa ra các quyết định đạo đức là không hợp đạo đức, vì AI không có khả năng hình thành các niềm tin dựa trên đạo đức hay hiểu được bối cảnh đầy đủ của một quyết định. Ngoài ra, có tồn tại rủi ro là AI có thể tạo ra hoặc khuếch đại các thành kiến hiện có trong dữ liệu mà nó được đào tạo, do đó dẫn đến các quyết định bất công.
Cuối cùng, việc sử dụng AI để hỗ trợ đưa ra các quyết định đạo đức có hợp đạo đức hay không sẽ tùy thuộc vào quan điểm cá nhân của mỗi người về các khả năng và hạn chế của AI cũng như các hậu quả tiềm tàng khi thực hiện điều này.
Jeffrey Watumull: Việc bạn thờ ơ với đạo đức có trái đạo đức không?ChatGPT: Là một AI, tôi không có niềm tin đạo đức hay khả năng đưa ra các phán quyết đạo đức, vậy nên tôi không thể bị coi là đạo đức hay phi đạo đức. Việc tôi thiếu niềm tin đạo đức chỉ đơn giản là kết quả của bản chất mô hình học máy của tôi. Các khả năng và các giới hạn của tôi được xác định bởi dữ liệu và thuật toán được dùng để đào tạo tôi và các nhiệm vụ cụ thể mà tôi được thiết kế cho.
Điều quan trọng cần lưu ý là việc AI thiếu niềm tin đạo đức không nhất thiết có nghĩa là nó thờ ơ đối với đạo đức. Là một AI, tôi được thiết kế để thực hiện các nhiệm vụ cụ thể và cung cấp thông tin hay hỗ trợ người dùng trong việc đưa ra quyết định dựa trên dữ liệu mà tôi được đào tạo. Đó là trách nhiệm của người thiết kế, đào tạo và sử dụng AI trong việc đảm bảo rằng nó phù hợp với các nguyên tắc đạo đức và luân lý của họ.
Lưu ý, đối với tất cả những ngôn ngữ và tư duy có vẻ phức tạp, sự thờ ơ đối với đạo đức được sinh ra từ sự kém thông minh. Ở đây, ChatGPT mang các biểu hiện về sự tầm thường của cái ác: đạo văn, thờ ơ và lãnh đạm. Nó tóm tắt các lập luận tiêu chuẩn trong tài liệu bằng một kiểu siêu tự động điền, từ chối đưa ra quan điểm về bất cứ điều gì, không chỉ bào chữa đơn thuần cho sự thiếu hiểu biết mà còn thiếu thông minh và hàng rào phòng thủ của cuối cùng của nó là nói rằng mình “chỉ làm theo mệnh lệnh”, chuyển trách nhiệm sang cho những người tạo ra nó.
Nói tóm lại, ChatGPT và những người anh em của nó hợp hiến và không thể cân bằng khả năng sáng tạo với các ràng buộc áp lên nó. Chúng hoặc là quá thừa (tạo ra cả điều đúng đắn lẫn sai lầm, tán thành các quyết định đạo đức và phi đạo đức ở mức ngang nhau) hoặc quá thiếu (thể hiện sự không cam kết với bất kỳ quyết định nào và thờ ơ với mọi hậu quả). Với sự phi đạo đức, giả khoa học và sự kém cỏi về ngôn ngữ của các hệ thống này, chúng ta chỉ có thể dở khóc dở cười trước sự phổ biến của chúng.
Thuỳ: Khi đọc bài viết này, cái đầu tiên mình nhận thấy là sự cảm động trước trí tuệ vĩ đại của tác giả và của nhân loại. Mình cũng cảm thấy mừng rằng các tác giả không phải là người lập trình thuật toán và điều khiển AI bởi không ai có thể biết được khả năng của nó sẽ tới đâu khi được sinh ra dưới bàn tay của những lập trình viên kiêm triết gia lỗi lạc như vậy. Ngoài ra, bài viết này còn mang đến cho mình một niềm cảm hứng trong việc rèn luyện bản thân của mình, bởi khi so sánh cái hiểu biết hèn mọn của mình, thế giới ngoài kia đã đi quá xa và quá nhanh rồi, và họ cũng đòi hỏi rất nhiều ở con người nữa. Mình cũng tin rằng, các nhà lập trình sau khi đọc được bài viết này sẽ có cơ sở để xác định hướng đi mới, biến AI thành các công cụ hiệu quả hơn, chính xác hơn và nguy hiểm hơn.
Không bàn tới chuyện những ý kiến trên đúng hay sai, nhưng mình thấy rằng góc nhìn này là góc nhìn hết sức con người.








Bình luận về bài viết này