Các nhà công nghệ ngân hàng đã làm nóng ý tưởng sử dụng trí tuệ nhân tạo (AI) và công nghệ máy học trong nhiều lĩnh vực như cho vay, tuân thủ chống rửa tiền và thu nợ. Nhưng các ngân hàng cũng phải đối mặt với vấn đề “hộp đen” khi họ cố gắng sử dụng AI. Họ không thể vận hành một mô hình AI trừ khi có thể chứng minh với lãnh đạo ngân hàng và các cơ quan quản lý rằng, mô hình đó đảm bảo công bằng, an toàn và có khả năng giải thích rõ ràng lý do đằng sau các quyết định được đưa ra.
Douglas Merrill, giám đốc điều hành và người sáng lập của ZestFinance, công ty cung cấp phần mềm dựa trên máy học để cho vay và tuân thủ các quy tắc chống rửa tiền nói rằng, trừ mảng chống gian lận thì các dịch vụ tài chính hầu như chưa sử dụng máy học. Không phải vì các công ty tài chính không đủ trình độ. Mỗi tổ chức tài chính lớn đều có người nghiên cứu về máy học và tất cả những người đó đều biết các thuật toán mới tốt hơn nhiều so với các thuật toán cũ. Nhưng vẫn chưa có thuật toán nào được đưa vào sử dụng, chủ yếu là vì vướng các quy định của cơ quan quản lý, chẳng hạn như khả năng giải thích.
Một chuyên gia giấu tên nói “Nỗi sợ lớn nhất của tôi khi đề xuất áp dụng máy học vào bất kỳ việc gì là câu trả lời "Tôi không nghĩ các cơ quan quản lý đã sẵn sàng". Tôi có thể dùng máy học để phát hiện những trường hợp bất thường. Nhưng khi vấn đề liên quan tới cách đối xử với con người hay áp dụng chính sách với khách hàng thì các cơ quan quản lý bắt đầu trở nên khó khăn. Họ đã quen với việc nhìn thấy một sơ đồ - nếu bạn dùng điều kiện này, bạn sẽ nhận được điều này.”
Bao giờ chúng ta sẽ có giải pháp nào cho vấn đề này? Khi nào AI có thể phát huy những tiềm năng của nó trong các dịch vụ tài chính? Chúng ta hãy cùng tìm hiểu thực tế thị trường ứng dụng AI tại Mỹ để hiểu thêm về xu hướng này.
Thành kiến không rõ từ đâu tới
Khả năng giải thích được cần tới nhất trong lĩnh vực cho vay. Ý tưởng đưa ra quyết định cho vay dựa trên một thuật toán hộp đen là nỗi kinh hoàng đối với các cơ quan bảo vệ người tiêu dùng và các nhà quản lý. Điều gì xảy ra nếu hộp đen đưa ra các quyết định có tương quan lớn với sắc tộc? Điều gì sẽ xảy ra nếu hộp đen bắt chước hành vi phân biệt đối xử của con người? Ví dụ như: những người thuộc một câu lạc bộ golf nào đó sẽ đương nhiên có xếp hạng tín dụng tốt.
David Berglund, phó chủ tịch cấp cao về trí tuệ nhân tạo tại U.S. Bank, cho biết việc sử dụng bất kỳ công nghệ nào cũng có rủi ro và việc sử dụng AI, học máy trong bảo lãnh cho vay không phải là trường hợp ngoại lệ. Chúng tôi lưu tâm đến sự cần thiết phải hạn chế sự thiên vị, đảm bảo sự công bằng và duy trì khả năng kiểm soát.
Nhưng một số người cho rằng, so với tất cả các sai lầm tiềm năng của AI, hệ thống hiện tại (không có AI) còn tồi tệ hơn. Paul Gu, đồng sáng lập Upstart - một công ty cho vay trực tuyến cung cấp nền tảng cho vay dựa trên AI của mình cho Customers Bancorp, BankMobile và một số đơn vị khác, phản đối mạnh mẽ ý tưởng cho rằng việc sử dụng dữ liệu thay thế và AI dẫn đến sự phân biệt đối xử. Ông cho rằng: “Các phương thức bảo lãnh truyền thống cũng không công bằng. Nếu một người lo lắng về việc các ngân hàng chỉ cho những người khá giả vay, thử hỏi họ có sử dụng dữ liệu về thu nhập của khách hàng (khi quyết định cho vay) không? Thế nào là người khá giả? Thường là điểm tín dụng (FICO) cao. Bạn nghĩ gì về tỷ lệ người trong một chủng tộc nhất định có điểm FICO cao? Nếu bạn so sánh con số đó với tỷ lệ phần trăm của những người ở các tổ chức giáo dục hàng đầu của Hoa Kỳ thì một trong những con số đó còn tốt hơn so với con số kia. Điều đó không có nghĩa là ngân hàng phản đối giáo dục. Chúng tôi có thể cải thiện đáng kể khả năng tiếp cận tín dụng”, ông nói. “Nhiệm vụ của chúng tôi là, với những người thực sự sẽ trả lại một khoản vay, chúng tôi muốn cho họ vay với lãi suất thấp nhất có thể.”
Khả năng giải thích của trường phái cũ
Berglund so sánh khả năng giải thích với việc một học sinh làm bài kiểm tra của mình. Bạn có thể đã trả lời đúng, nhưng bạn có thể làm điều đó một cách nhất quán theo thời gian và làm tốt cả các bài kiểm tra mới không? Ngày nay, những người tiêu dùng bị từ chối cho vay được biết lý do từ chối hoặc các hành động bất lợi đã khiến họ không được vay. Đôi khi các lý do đó được gửi thẳng từ đơn vị xếp hạng tín dụng. Merrill nói “Dữ liệu của chúng tôi cho thấy gần như 80% những lý do đó là sai.”
Ông cũng chỉ trích hiện trạng tại các ngân hàng: “Các hành động bất lợi của khách hàng - mà hầu hết các tổ chức cho vay chỉ ra - được thiết kế cho một thế giới bảo lãnh nhị phân thuần túy, trong đó bảo lãnh được phát hành nếu điểm tín dụng của bạn đạt mức này, nếu tỷ lệ nợ trên thu nhập của bạn ở mức này thì chấp nhận được”.
Các mã hành động bất lợi được chỉ ra bởi các hệ thống cho vay cũ thường không đúng, và thậm chí không thể sửa được. Đôi khi, người ta bảo khách hàng rằng anh ta/cô ta không thể vay tiền vì chưa vay đủ nhiều.
Những người trở nên giàu hoặc thăng tiến một cách đột ngột (Upstart) đã gây tranh cãi vì mô hình của họ xem xét dữ liệu về giáo dục của ứng viên - bằng cấp, trường học, lĩnh vực học tập và năm tốt nghiệp - bên cạnh dữ liệu về người sử dụng lao động và nghề nghiệp, dữ liệu từ chính đơn xin vay và dữ liệu của tổ chức xếp hạng tín dụng truyền thống. Họ đã được Cục Bảo vệ Tài chính Người tiêu dùng cho phép hoạt động sau khi gửi cho cơ quan này thông tin chi tiết về tất cả các đơn xin vay mà họ nhận được, phê duyệt và từ chối. Những Upstart có đủ khả năng giải thích mô hình của họ. Berglund ho rằng: “Nếu bạn từ chối cho một người nào đó vay, bạn phải giải thích rõ lý do. Chúng tôi làm được điều đó; đó là một vấn đề có thể giải quyết. Bạn có một mô hình phức tạp nhưng toán học có thể giải quyết các bài toán phức tạp. Mô hình của chúng tôi giúp bạn đưa ra những lý do để giải thích với khách hàng, những lý do mà theo chúng tôi là tốt hơn lý do của những hệ thống kiểu cũ.”
Tương tự, Scott Zoldi, chuyên gia phân tích trưởng của FICO nói rằng, phần mềm chống rửa tiền dựa trên AI của công ty ông có thể xác định lý do cho mỗi giao dịch rửa tiền tiềm ẩn mà nó đánh dấu. “Nếu mỗi quyết định đi kèm với một mã lý do và kèm theo cả một câu chuyện nhân bản thì khách hàng (của FICO) có thể giải thích tại sao họ chặn một giao dịch và đó là một cách giải thích tốt hơn hẳn. Mô hình máy học không chỉ cần có khả năng giải thích theo cách hàn lâm. Cần có một người ở đầu kia điện thoại có khả năng nói với tôi bằng ngôn ngữ của con người về việc tại sao giao dịch của tôi bị chặn. Đó chính là hướng tiến hóa (của các thuật toán).”
Những dạng mới của khả năng giải thích
Các nhà khoa học đã tạo ra những kỹ thuật để đưa ra lời giải thích từ các mô hình toán của máy học. Một trong số đó là LIME, xuất hiện năm 2016. Một kỹ thuật phổ biến khác xuất hiện năm 2017 với tên gọi là SHAP (từ viết tắt của SHapley Additive exPlanations). Cả ZestFinance và underwrite.ai đều sử dụng SHAP.
Theo tổng giám đốc Marc Stein, underwrite.ai đã tạo ra những mô hình có khả năng giải thích đầy đủ từ năm 2014. “Đó không phải là thứ mới. Với mỗi quyết định, chúng tôi có thể xem xét kỹ mô hình và nói những thuộc tính nào dẫn bạn tới kết luận (về việc cho vay hay không)”. Nếu mô hình của underwrite.ai từ chối một đơn xin vay, nó sẽ cung cấp những dữ liệu quan trọng nhất đã góp phần đưa đến quyết định đó. Nó có thể là một vụ phạm pháp hay một tiền sự.
“Đó không phải là một quy tắc cứng nhắc. Chúng tôi không nói rằng “Từ chối bất kỳ ai có tiền sự”, Stein nói. “Nhưng mô hình đã học được rằng nếu có nhiều tiền án tiền sự thì khả năng một người là khách hàng tốt khá thấp. Rất dễ để ánh xạ những dữ liệu đó với các mã từ chối nên có thể giải thích rõ rằng cho khách hàng. Chúng tôi phấn khích với việc những khoản đầu tư ngày càng tăng được đổ vào thị trường AI có khả năng giải thích”.
Thuyết phục các cơ quan quản lý
Trong những cuộc trao đổi riêng, các ngân hàng thường nói rằng tuy cơ quản quản lý thể hiện sự cởi mở với việc sử dụng AI nhưng những thanh tra ở địa phương thường không hiểu công nghệ và sẽ phản đối họ. Zoldi nói nhiều ngân hàng đã yêu cầu ông giải thích cho các cơ quan quản lý địa phương về cách các công cụ chống rửa tiền dựa trên AI của FICO hoạt động. Đôi khi họ bảo rằng “Nếu tôi không làm mọi thứ theo cách cũ thì tôi sẽ bị phạt rất nặng”.
Các cơ quan quản lý Hoa Kỳ đã thực hiện một số động thái thúc đẩy việc ứng dụng AI. Họ đã ban hành một tuyên bố chung vào tháng 12, khuyến khách việc sử dụng AI để tuân thủ Luật bí mật ngân hàng (Bank Secrecy Act) và các quy tắc chống rửa tiền khác. Họ nói rằng, phần mềm AI xứng đáng để thử nghiệm. Tuy nhiên, không rõ điều đó đã đủ để các ngân hàng cảm thấy tin tưởng hay chưa. Hơn thế, một số ngân hàng còn muốn vượt khỏi phạm vi chống rửa tiền và sử dụng AI trong cho vay và các lĩnh vực khác.
Merrill ở ZestFinance nói ông đã dành thời gian làm việc với các cơ quan quản lý, giải thích cơ chế hoạt động của phần mềm máy học do công ty ông phát triển.“Chúng tôi đang có những bước tiến lớn nhưng vẫn còn nhiều việc phải làm.”
Stein nói, ông đã thảo luận nhiều lần với những người ở Cục Bảo vệ Tài chính Người tiêu dùng về AI và những kiểu dữ liệu mà công ty ông dùng trong các mô hình. “Phản ứng của họ luôn là ‘Chúng tôi không quan tâm đến quy trình kỹ thuật, chúng tôi quan tâm đến việc tuân thủ các quy định. Nếu một khách hàng bị từ chối, ông có thể giải thích cho anh ta/cô ta tại sao họ bị từ chối không? Khả năng giải thích của mô hình có ổn định không?’”
Chẳng hạn, nếu một mô hình nói một tiền sự là lý do khiến ngân hàng từ chối cho vay thì cần phải có một tiền sự trong hồ sơ của khách hàng xin vay bị từ chối. Đó không phải là một tình huống hộp đen.
Tài liệu tham khảo:
https://www.information-management.com/news/can-ais-black-box-problem-be-solved.
Tuấn Anh
Nguồn: TCNH chuyên đề THNH số 4/2019