Thay vì hoảng sợ sẽ mất việc làm do robot thay thế, ta cần hiểu rõ những điều cơ bản dưới dây để có thể cùng hợp tác với những "đồng nghiệp" mới này.
Madaline là đối tượng đầu tiên.
Vào năm 1959, cô sử dụng trí tuệ tuyệt vời của mình để xử lý một vấn đề khó chịu vốn đã tồn tại từ lâu: tiếng vọng trong điện thoại.
Thời đó, điện thoại đường dài thường bị gián đoạn bởi chính âm thanh của người gọi dội lại khi họ cất tiếng nói.
Cô chỉnh lại lỗi này bằng cách nhận ra khi nào tín hiệu gửi đến trùng với tín hiệu phát đi, và tự động xóa chúng đi.
Giải pháp thật nhanh gọn, và nó vẫn còn được dùng đến tận thời nay. Tất nhiên, cô không phải là người - cô là một hệ thống có tên là Multiple ADAptive LINear Elements (Yếu tố tiếp nhận đa tuyến tính) - hay gọi tắt là Madaline.
Đó là lần đầu tiên trí tuệ nhân tạo (AI) được sử dụng.
Ngày nay mọi người đều chấp nhận sự thật là máy tính thông minh sẽ bắt đầu làm thay công việc của ta.
Chúng sẽ hoàn thành tất cả công việc trong tuần của bạn trước khi bạn kịp ăn xong miếng bánh mì bữa sáng - và chúng không cần nghỉ giữa giờ, không cần quỹ lương hưu, thậm chí chẳng cần ngủ.
Tuy nhiên, dù rất nhiều công việc sẽ được tự động hóa trong tương lai nhưng trước mắt thì những siêu máy tính này nhiều khả năng sẽ vẫn cần phải làm việc bên cạnh con người.
Mặc dù đã 'làm việc' vô cùng thành công trong một số lĩnh vực, chẳng hạn như khả năng nhận biết trước tình trạng gian lận để ngăn chặn, không cho nó xảy ra, hay cho ra kết quả tầm soát ung thư đáng tin cậy hơn bác sĩ, nhưng những cỗ máy AI cao cấp nhất ngày nay vẫn chưa thể đạt tới mức có kiến thức tổng hợp.
Theo một báo cáo năm 2017 của hãng McKinsey, với công nghệ hiện nay thì chỉ có 5% số việc làm sẽ được tự động hóa hoàn toàn, còn đến 60% nghề nghiệp robot sẽ chỉ tham gia đảm nhận được khoảng 1/3 quy trình.
Một điểm quan trọng mà ta cần lưu ý là không phải mọi robot đều sử dụng trí tuệ nhân tạo - một số robot có, nhưng đa phần là không.
Vấn đề nằm ở chỗ sự thiếu hụt trí tuệ khiến cho các robot thông minh này không thể xâm chiếm thế giới, tuy nhiên sự thiếu hụt đó cũng chính là điều khiến chúng ta, những đồng nghiệp bằng xương bằng thịt của chúng, cực kỳ bối rối.
Từ xu hướng phân biệt chủng tộc đến việc không thể tự định ra mục tiêu cho mình, không thể giải quyết vấn đề, không biết cách ứng phó hợp lý, thế hệ công nhân mới này thiếu những kỹ năng mà thậm chí những ai khờ khạo nhất cũng có.
Vì thế, trước khi sẵn sàng đối diện với một tương lai mới, khi mà trí tuệ nhân tạo thực sự chiếm thế thượng phong và lấy hết việc làm của chúng ta, thì bạn cần biết những điều sau để có thể làm việc thân thiện với những đồng nghiệp mới là robot.
Quy tắc 1: Robot không suy nghĩ như con người
Vào cùng thời gian Madaline tạo ra cuộc cách mạng trong điện thoại đường dài, nhà triết học người Anh gốc Hungary tên Michael Polanyi đã suy nghĩ lao lung về trí tuệ con người.
Polanyi nhận ra trong khi có một số kỹ năng, chẳng hạn như việc sử dụng ngữ pháp chính xác, là thứ ta có thể dễ dàng sắp xếp thành quy luật và dựa vào quy luật đó để giải thích cho người khác, thì có rất nhiều kỹ năng lại không thể làm vậy.
Con người có thể thực hiện những khả năng ngầm mà chính họ cũng không nhận ra.
Theo cách Polanyi nói, thì "chúng ta biết nhiều hơn thứ ta có thể nói ra". Điều này có thể bao gồm khả năng thực hành như đi xe đạp và nhào bột, cũng như những kỹ năng cao cấp hơn. Vấn đề là nếu ta không biết quy luật thì ta không thể dạy cho máy tính được. Đây chính là nghịch lý Polanyi.
Thay vì cố gắng giải mã trí tuệ con người, các nhà khoa học máy tính tìm cách khác để giải quyết vấn đề này bằng cách phát triển AI để nó biết suy nghĩ theo cách hoàn toàn khác - đó là các ý nghĩ tạo thành nhờ dữ liệu.
"Bạn có thể nghĩ rằng cách mà AI vận hành là dựa vào việc chúng ta hiểu về con người ra sao, rồi chúng ta dùng sự hiểu biết đó để xây dựng AI," Rich Caruana, nhà nghiên cứu cao cấp tại Microsoft Research, nói. "Nhưng mà không phải vậy."
Ông lấy ví dụ như máy bay, là thứ vốn được sáng chế từ lâu trước khi chúng ta hiểu một cách tường tận về cách loài chim bay và do đó có cách hiểu khác về khí động học. Thế nhưng ngày nay chúng ta chế tạo ra được những loại máy bay bay cao hơn, xa hơn bất kỳ loài động vật nào.
Giống như Madaline, rất nhiều thiết bị sử dụng trí tuệ nhân tạo là "mạng lưới thần kinh", nghĩa là chúng sử dụng các mô hình toán học để học bằng cách phân tích lượng dữ liệu khổng lồ.
Chẳng hạn, Facebook huấn luyện phần mềm nhận diện khuôn mặt, được gọi là DeepFace, dựa trên khoảng bốn triệu tấm ảnh. Bằng cách nhìn cấu trúc các ảnh chụp một người, phần mềm cuối cùng cũng học được cách nhận diện gương mặt chính xác đến 97% trong số các lần nhận diện.
Các phần mềm trí tuệ nhân tạo như DeepFace là ngôi sao đang lên ở Thung lũng Silicon, và chúng đã qua mặt những người đã chế tạo ra chúng ở nhiều kỹ năng như lái xe hơi, nhận diện giọng nói, dịch thuật ngôn ngữ này sang ngôn ngữ khác, và tất nhiên, tính năng tag ảnh. Trong tương lai các phần mềm này được trông đợi sẽ là xâm nhập vào nhiều lĩnh vực, từ chăm sóc sức khỏe đến tài chính.
Quy tắc 2: Người bạn robot mới không phải lúc nào cũng đúng. Chúng vẫn mắc lỗi.
Nhưng cách tiếp cận dựa trên dữ liệu này cũng có nghĩa là chúng sẽ tạo ra những sai lầm to lớn. Chẳng hạn như có thời một AI kết luận con rùa được in ra bằng công nghệ 3D là một khẩu súng.
Các chương trình không thể suy nghĩ trừu tượng, theo kiểu "nó có nhiều miếng vảy mỏng và một cái vỏ, vậy nó hẳn là con rùa".
Thay vào đó, máy móc tư duy theo khuôn mẫu đã được định sẵn, mà trong trường hợp này khuôn mẫu để nó tư duy chính là các điểm ảnh.
Hệ quả là do không nhận diện được hình ảnh, AI tự chỉnh sửa một điểm ảnh nào đó để đưa hình ảnh đến gần với định dạng mà nó biết, và thế là những cái vảy trên mu rùa được diễn giải thành một câu trả lời kỳ quặc.
Điều đó cũng cho thấy robot không có tri giác thông thường gì hết, mà điều này lại rất quan trọng ở nơi làm việc, nơi mà người ta cần phải biết sử dụng những kiến thức, kinh nghiệm đã có trong những tình huống mới.
Ví dụ kinh điển của trường hợp này là Trí tuệ Nhân tạo DeepMind: vào năm 2015 nó được yêu cầu chơi trò chơi Pong cho đến khi chơi giỏi. Đúng như bạn nghĩ, nó chỉ mất vài giờ trước khi chiến thắng đối thủ là con người và thậm chí tiên phong tìm ra cách chiến thắng hoàn toàn mới. Nhưng để chơi giỏi trò Breakout gần giống trò chơi trên, AI này lại phải học lại từ đầu.
Mặc dù phát triển kỹ năng chuyển hóa kiến thức đã trở thành lĩnh vực lớn trong nghiên cứu, như hiện giờ mới chỉ có một hệ thống đơn lẻ tên IMPALA có thể chuyển giao kiến thức qua lại giữa 30 môi trường khác nhau.
Quy tắc 3: Robot không thể giải thích vì sao chúng ra quyết định
Vấn đề thứ hai với AI là nghịch lý Polanyi hiện đại. Vì chúng ta không hoàn toàn hiểu cách não người học hỏi điều mới ra sao, cho nên chúng ta lập trình để AI suy nghĩ như một nhân viên thống kê. Nhưng trớ trêu thay, ta lại biết rất ít về những gì diễn ra bên trong tâm trí của AI. Vậy là ta phải đối phó với hai bộ tư duy mà ta chưa hiểu rõ.
Hiện tượng này gọi là "vấn đề hộp đen", vì mặc dù bạn biết dữ liệu nạp vào và bạn thấy kết quả đầu ra, nhưng bạn không biết bên trong chiếc hộp trước mặt nó đã dùng cơ chế nào đưa ra kết quả đó. "Vì thế giờ đây chúng ta có hai loại trí tuệ hoàn toàn khác biệt mà ta không hiểu rõ," Caruana nói.
Mạng lưới thần kinh không có kỹ năng ngôn ngữ, vì thế chúng không thể giải thích cho bạn hiểu chúng đang làm gì và tại sao làm vậy. Và cũng giống như tất cả AI, chúng không có khả năng phản xạ tự nhiên.
Vài thập niên trước, Caruana ứng dụng mạng lưới thần kinh với một số dữ liệu y tế.
Nó bao gồm những triệu chứng và hệ quả, và mục đích là để tính toán rủi ro của bệnh nhân có thể chết vào ngày nào đó, để từ đó bác sĩ có thể ngăn chặn nguy cơ này.
Có vẻ như cơ chế này hoạt động tốt, cho đến một đêm có sinh viên nghiên cứu tại Đại học Pittsburg chú ý điều gì đó khác lạ. Anh đang xử lý những dữ liệu tương tự với thuật toán đơn giản hơn, để từ đó anh có thể đọc được logic ra quyết định, từng dòng một. Một trong những dòng đó viết như sau "hen suyễn là tốt cho bạn nếu bạn đang bị viêm phổi".
"Chúng tôi hỏi các bác sĩ và họ nói 'Ồ tệ quá, cái này cần phải sửa lại," Caruana kể lại.
Hen suyễn là một nguy cơ nghiêm trọng trong quá trình bệnh viêm phổi phát triển, vì cả hai bệnh này đều tác động tới phổi.
Người ta sẽ không bao giờ biết chắc cái máy học đâu ra quy luật này, nhưng có một giả thuyết là khi một bệnh nhân có tiền sử hen suyễn bị viêm phổi, họ sẽ phải nhanh chóng đi khám bác sĩ, và điều này giúp tăng khả năng sống sót của bệnh nhân.
Với việc ngày càng có người quan tâm tới việc sử dụng AI để phục vụ công chúng, nhiều chuyên gia công nghiệp trở nên lo ngại.
Năm nay, quy định mới của Liên minh Châu u bắt đầu có hiệu lực, theo đó các cá nhân có quyền yêu cầu được giải thích về logic ẩn sau các quyết định của AI.
Bộ phận nghiên cứu quân sự của Hoa Kỳ, Cơ quan Dự án Nghiên cứu Phòng thủ Cao Cấp (Darpa) cũng đang đầu tư 70 triệu đô la Mỹ vào một chương trình mới về AI.
"Gần đây, đã có yêu cầu phải cải tiến độ chính xác mà các hệ thống này thực hiện," David Gunning, người quản lý dự án ở Darpa, nói. "Nhưng cái giá chúng tôi phải trả là những hệ thống này quá mức rối rắm và phức tạp. Chẳng hạn như chúng tôi không biết vì sao mà nó lại đề xuất chọn một món đồ nào đó hoặc vì sao nó lại chọn đi một nước đi nào đó trong một trò chơi."
Quy tắc 4: Robot có thể cũng có định kiến
Ngày càng có nhiều quan ngại rằng một số thuật toán cũng có thể ẩn giấu những định kiến vô tình, như kỳ thị giới tính hay chủng tộc. Chẳng hạn, gần đây một phần mềm có nhiệm vụ tư vấn xem liệu một tội phạm bị kết án có nguy tái phạm tội không, và kết quả là nó đưa ra tỷ lệ cao gấp đôi ở người da đen.
Tất cả là do cách thuật toán được huấn luyện. Nếu dữ liệu được nhập vào là chặt chẽ thì các quyết định mà chúng đưa ra sẽ có độ chính xác cao. Thế nhưng thường sẽ vẫn có định kiến của con người nằm ẩn ở đâu đó trong các dữ liệu nhập vào máy.
Một ví dụ nổi bật ta có thể thấy dễ dàng trong chương trình dịch thuật tự động của Google, Google Translate. Một nhà nghiên cứu chỉ ra trên tạp chí Medium năm ngoái rằng nếu bạn dịch "Anh ấy là y tá. Cô ấy là bác sĩ" từ tiếng Anh sang tiếng Hungary và sau đó dịch ngược lại từ tiếng Hung thành tiếng Anh, thuật toán sẽ cho ra kết quả câu ngược lại "Cô ấy là y tá. Anh ấy là bác sĩ".
Thuật toán được huấn luyện trên văn bản từ hàng triệu triệu trang web. Nhưng tất cả những gì nó biết làm là tìm ra quy luật, chẳng hạn như bác sĩ có khả năng sẽ là đàn ông và y tá lại có thể thường là phụ nữ.
Một cách khác mà định kiến có thể len vào là qua cách đánh giá. Cũng như con người, những đồng nghiệp AI của ta sẽ phân tích dữ liệu bằng cách "đánh giá" nó - cơ bản là quyết định xem trong các thông số thì cái nào quan trọng hơn, cái nào ít quan trọng hơn. Một thuật toán có thể quyết định rằng mã số bưu điện của một người ít nhiều liên quan đến điểm tín dụng của họ - đây là điều đang xảy ra ở Hoa Kỳ - và từ đó kỳ thị những người thuộc nhóm thiểu số, vốn thường sống ở khu phố nghèo hơn.
Đây không phải chỉ là phân biệt chủng tộc hay giới tính. Đây là những định kiến mà ta sẽ không thể ngờ tới. Nhà kinh tế học đoạt giải Nobel, Daniel Kahneman, người dành cả đời để nghiên cứu định kiến vô lý trong tâm trí con người, đã giải thích khá rõ vấn đề này trong một phỏng vấn với blog Freakonomics từ năm 2011. "Theo bản tính tự nhiên, cách tự học rút gọn sẽ gây ra định kiến, và điều này đúng với cả con người và trí tuệ nhân tạo, nhưng cơ chế tự học của AI không nhất thiết giống với con người."
Kỷ nguyên của robot đang đến. AI sẽ thay đổi tương lai của công việc mãi mãi. Nhưng cho đến khi robot đạt tới mức giống người hơn một chút, chúng vẫn sẽ cần có con người chúng ta bên cạnh. Và thật tuyệt vời, có vẻ như những đồng nghiệp bằng nhựa này sẽ khiến ta trở nên rất hay ho.
Phần nhận xét hiển thị trên trang
Không có nhận xét nào:
Đăng nhận xét