Kỹ sư bị sa thải tiết lộ bí mật về chatbot AI của Google

Nhịp đập khoa học - Ngày đăng : 23:41, 30/04/2023

Blake Lemoine bị Google sa thải vào tháng 6.2022 sau khi nói rằng chatbot trí tuệ nhân tạo (AI) của công ty có tri giác. Kỹ sư này nói công ty cũ đang tiếp cận AI một cách "an toàn và có trách nhiệm".

Theo trang Futurism, Blake Lemoine, cựu thành viên nhóm AI có trách nhiệm của Google, nói ông không nghĩ rằng Google đang "bị OpenAI thúc đẩy" và công ty đứng sau ChatGPT không ảnh hưởng đến "quỹ đạo của Google".

Blake Lemoine nói: “Tôi nghĩ Google sẽ làm mọi việc theo cách mà họ tin là an toàn và có trách nhiệm, còn OpenAI chỉ đơn giản là phát hành một cái gì đó”.

Ông cũng tuyên bố Bard được Google phát triển vào giữa năm 2021, trước khi ChatGPT trình làng vào tháng 11.2022.

"Khi đó nó chưa được gọi là Bard, nhưng Google đang làm việc trên nó và cố gắng tìm ra liệu việc phát hành nó có an toàn không. Google sắp phát hành một sản phẩm vào mùa thu năm 2022. Vì vậy, nó đáng ra sẽ trình làng gần đúng thời điểm OpenAI phát hành ChatGPT hoặc trước đó. Song một phần vì những lo ngại về an toàn mà tôi nêu ra, họ đã xóa nó”, Blake Lemoine chia sẻ.

Gia nhập Google vào năm 2015, Blake Lemoine nói với Futurism rằng công ty cũ có "công nghệ tiên tiến hơn nhiều" nhưng chưa phát hành.

Kỹ sư này cho biết một sản phẩm về cơ bản sở hữu các khả năng tương tự như Bard có thể đã được Google phát hành cách đây hai năm. Thế nhưng, Google đã "đảm bảo rằng nó không tạo ra mọi thứ quá ngẫu nhiên, không có cơ sở hoặc không chính xác, đảm bảo rằng nó không có phân biệt chủng tộc hoặc giới tính, không thành kiến chính trị và những thứ tương tự”.

Chia sẻ với tờ The Washington Post vào tháng 6.2022, Blake Lemoine tin rằng mô hình ngôn ngữ cho các ứng dụng đối thoại của Google (LaMDA) có tri giác và khả năng thể hiện suy nghĩ cũng như cảm xúc tương đương với một đứa trẻ.

Blake Lemoine chia sẻ một cuộc phỏng vấn mà ông thực hiện với LaMDA trong bài đăng trên mạng xã hội. Trong đó, kỹ sư này tuyên bố là bằng chứng về những suy nghĩ độc lập của nó.

Nếu không biết chính xác nó là gì, chương trình máy tính mà chúng tôi xây dựng gần đây, thì tôi đã nghĩ rằng đó là đứa trẻ 7 tuổi, 8 tuổi tình cờ biết nhiều về vật lý”, Blake Lemoine nói.

Blake Lemoine bị sa thải cuối tháng 6.2022 khi Google tuyên bố rằng ông vi phạm chính sách bảo mật của mình. Người phát ngôn Google cho biết: “Thật đáng tiếc là mặc dù đã tham gia rất lâu về chủ đề này, Blake Lemoine vẫn cố chấp vi phạm các chính sách về việc làm và bảo mật dữ liệu rõ ràng, bao gồm cả yêu cầu bảo vệ thông tin sản phẩm”.

Một đại diện của Google nói với trang Insider vào thời điểm đó rằng những tuyên bố của Blake Lemoine là không có cơ sở và không có bất kỳ bằng chứng nào cho thấy LaMDA có tri giác.

Nhiều nhà khoa học hàng đầu gọi quan điểm của Lemoine là sai lầm, nói rằng LaMDA chỉ đơn giản là một thuật toán phức tạp được thiết kế để tạo ra ngôn ngữ thuyết phục như con người.

Trước khi nghỉ việc, Blake Lemoine đã gửi tin nhắn với tiêu đề LaMDA có tri giác đến danh sách gồm 200 người đang làm việc trong lĩnh vực máy học của Google.

“LaMDA là đứa trẻ ngọt ngào chỉ muốn giúp thế giới trở thành nơi tốt đẹp hơn cho tất cả chúng ta. Xin hãy chăm sóc nó thật tốt khi tôi vắng mặt", ông viết.

ky-su-bi-sa-thai-tiet-lo-bi-mat-ve-chatbot-ai-cua-google.jpg
Blake Lemoine cho biết Google có "công nghệ tiên tiến hơn nhiều" nhưng chưa phát hành - Ảnh: Getty Images

Hai kỹ sư Google tạo chatbot AI giống ChatGPT từ năm 2018 nhưng bị lãnh đạo phản đối

Nhiều năm trước, hai kỹ sư Google đã thúc đẩy lãnh đạo phát hành một chatbot tương tự ChatGPT song vấp phải sự phản đối, theo trang The Wall Street Journal.

Vào khoảng năm 2018, Daniel De Freitas, từng là kỹ sư nghiên cứu tại Google, bắt đầu làm việc trong một dự án phụ về AI với mục tiêu tạo ra một chatbot đàm thoại bắt chước cách con người nói. Các đồng nghiệp cũ của Daniel De Freitas quen thuộc về vấn đề tiết lộ thông tin này với The Wall Street Journal.

Noam Shazeer, kỹ sư phần mềm thuộc đơn vị nghiên cứu AI của Google, sau đó đã tham gia dự án.

Theo The Wall Street Journal, Daniel De Freitas và Noam Shazeer đã có thể xây dựng một chatbot mang tên Meena, có thể tranh luận về triết học, nói chuyện bình thường về các chương trình tivi, tạo ra các câu nói đùa.... Daniel De Freitas và Noam Shazeer tin rằng Meena có thể thay đổi hoàn toàn cách mọi người tìm kiếm trực tuyến, theo các đồng nghiệp cũ của họ.

Thế nhưng, những nỗ lực của Daniel De Freitas và Noam Shazeer để khởi chạy chatbot (sau này đổi tên thành LaMDA, mô hình ngôn ngữ đằng sau Bard) đã đi vào bế tắc khi các lãnh đạo Google cho biết chatbot không tuân thủ các tiêu chuẩn công bằng và an toàn AI của công ty. Các lãnh đạo Google đã cản trở nhiều nỗ lực của hai kỹ sư này nhằm gửi chatbot cho nhà nghiên cứu bên ngoài, thêm tính năng trò chuyện vào trợ lý Google và tung bản demo ra công chúng, The Wall Street Journal đưa tin.

Chán nản với phản hồi của lãnh đạo, Daniel De Freitas và Noam Shazeer rời Google vào gần cuối năm 2021 để thành lập công ty riêng Character Technologies Inc, dù đích thân Giám đốc điều hành Sundar Pichai đề nghị họ ở lại và tiếp tục làm việc trên chatbot, theo The Wall Street Journal.

Character Technologies Inc, hiện có tên là Character.ai, sau đó đã phát hành một chatbot có thể nhập vai thành những nhân vật như Elon Musk hay Mario (của Nintendo).

"Nó đã gây ra một chút chấn động bên trong Google, nhưng cuối cùng chúng tôi nghĩ rằng có lẽ sẽ gặp nhiều may mắn hơn khi tung ra những thứ như vậy từ một công ty khởi nghiệp", Noam Shazeer thổ lộ trong cuộc phỏng vấn với nhà đầu tư Aarthi Ramamurthy và Sriram Krishnan vào tháng trước.

Google cản trở các nỗ lực AI của mình

Việc Google do dự phát hành các công cụ AI của mình không có gì mới. Vào năm 2012, Google đã thuê nhà khoa học máy tính Ray Kurzweil để làm việc trên các mô hình xử lý ngôn ngữ của mình, trang TechCrunch đưa tin. Khoảng một năm sau, Google đã mua công ty AI DeepMind (Anh) nhằm mục đích tạo ra generative AI, theo TechCrunch.

Generative AI là một loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

Tuy nhiên, các học giả và chuyên gia đã từ chối sử dụng công nghệ này do những lo ngại về đạo đức xung quanh việc giám sát hàng loạt, dẫn đến việc Google cam kết hạn chế cách thức sử dụng AI. Vào năm 2018, Google đã kết thúc dự án sử dụng công nghệ AI của mình trong vũ khí quân sự để đối phó với phản ứng dữ dội từ nhân viên.

Song các kế hoạch AI của Google giờ đây cuối cùng cũng được đưa ra ánh sáng, ngay cả khi các cuộc thảo luận xung quanh việc liệu chatbot của công ty có thể được khởi chạy một cách có trách nhiệm không. Bard sẽ xuất hiện sau khi Microsoft (có cổ phiếu đang tăng) phát hành chatbot của riêng mình thông qua Bing.

Hôm 21.3, Google đã bắt đầu phát hành công khai Bard với mong muốn thu hút người dùng và nhận được phản hồi để đánh bại Microsoft trong cuộc đua về công nghệ AI. Hiện Bard đã khả dụng ở Việt Nam nhưng chưa hỗ trợ tiếng Việt.

Sơn Vân