W&W #11: Làm sao để trở thành người dùng AI "thông minh"??
- sharewithjasmine
- 30 thg 10
- 11 phút đọc
"Người ta thường nói về tầm quan trọng của việc tìm ra câu trả lời, nhưng mình nhận ra rằng, sức mạnh thực sự nằm ở việc đặt ra đúng câu hỏi. 'Wander & Wonder' là series về chính hành trình đó: từ những ngày tháng 'wander' mông lung trong những ngã rẽ, những quyết định của sự nghiệp, cho đến khoảnh khắc 'wonder' - khoảnh khắc mình dám hỏi và bắt đầu đi tìm lời giải cho những trăn trở của riêng mình. Chào bạn đến với post #11 trong series bài viết "Wander & Wonder" & cùng mình suy nghĩ về câu hỏi " Làm sao để trở thành người dùng AI "thông minh"?"- Jasmine Nguyen
Cuối tuần rồi mình có cơ hội gặp lại 1 đồng nghiệp cũ ở TikTok đã & đang làm việc tại Amazon, tụi mình đã có một cuộc trò chuyện rất thú vị về tình hình công việc ở các công ty công nghệ. Một điều mà cả đám đều đồng tình là từ đây đến cuối năm, làn sóng laid off tại các công ty công nghệ lớn sẽ diễn ra một cách khá tàn khốc, và việc AI thay thế một vài công việc của con người là điều đang & sẽ diễn ra. Và điều đó thật sự đã đến, cách đây 2 ngày, Amazon thông báo cắt giảm 14,000 việc làm để thay thế bằng AI. Nó không còn là một "diễn ngôn" xa xôi nữa, mà là một thực tế đáng sợ. Nó khiến những quan sát của mình càng trở nên cấp bách hơn.
Hay như trong đợt đi học hè vừa rồi, mình quan sát thấy 1 điều khá thú vị, tất cả sinh viên đến từ Canada, Ba Lan đều sử dụng ChatGPT trong quá trình làm việc nhóm, tìm kiếm thông tin & tư duy cá nhân của họ. Thậm chí một số bạn học sử dụng ngay kết quả mà ChatGPT gửi ra như thể họ hoàn toàn tin tưởng điều nhận được và xem đó là ý kiến, quan điểm của mình, vì AI là hệ thống, là dữ liệu, là logic. Ở VN, mọi chuyện cũng tương tự khi học nhóm, nhận được những sản phẩm hoàn toàn từ AI mà không hề có sự phản biện hay mài giũa cá nhân là chuyện đau đầu mình gặp lúc học.
Đó là chuyện đi học. Và giờ đây, thực tế còn đáng báo động hơn. Khi tin tức về 14,000 nhân sự Amazon bị thay thế bởi AI nổ ra, những "diễn ngôn" về AI thay thế con người đã trở thành sự thật. Nỗi sợ này là có thật. Ngay cả khi LinkedIn dùng AI để "rank" profile của chúng ta, chẳng hạn như top applicant, high profile, medium,... mình tự hỏi AI nào đang đưa ra đánh giá này và các tiêu chí của thang đánh giá này là gì?
Chính những điều này dẫn mình đến câu hỏi lớn mà mình muốn trao đổi cùng các bạn hôm nay trong Wander & Wonder #11 "Làm sao để trở thành người dùng AI "thông minh"?"
Mình cũng dùng AI rất nhiều trong công việc & cả trong cuộc sống trong 2 năm qua, bắt đầu với ChatGPT và cả Gemini từ lúc còn là Beta version và chưa có tên là Gemini như bây giờ. Mình không hỏi câu hỏi "AI làm được gì?" vì cả thế giới đang nhìn thấy những chứng minh về khả năng làm được nhiều việc của AI nhưng có 2 câu hỏi khác quan trọng hơn cần chúng ta quan tâm: AI đang là "ai"? Hay đúng hơn là hệ tư tưởng nào đằng sau AI? và AI sẽ không bao giờ có thể làm gì?. Khi đi tìm câu trả lời cho câu hỏi nhỏ này, một cách nào chúng ta cũng sẽ có được góc nhìn để tìm câu trả lời cho câu hỏi lớn.
Và "thông minh" mà mình đang nói đến ở đây, trong bối cảnh này, chính là '"sự sống còn" (survival). Nó là việc hiểu và sử dụng hiệu quả công cụ AI trong hiện tại. Còn AI trong tương lai có lẽ sẽ vượt ngoài sự hiểu biết của mình nên lúc đó chúng ta sẽ học cách sinh tồn với AI nhiều hơn là "dùng" & "sử dụng".
Chúng ta bàn về sự khách quan trước nhé:
Chúng ta thường nghe nói về việc các mô hình AI đạt "hiệu suất tầm cỡ con người" (human-level performance) và phản ứng "tương tự như con người'". Khi nghe những điều này, bạn có bao giờ nghĩ AI "khách quan" vì nó là máy, nó chạy bằng data, nó không thiên vị. Mình cũng đã hoài nghi nhưng với AI hiện đại (như deep learning) không hẳn hoạt động như một hệ thống logic hình thức chặt chẽ, mà dựa trên nhận diện mẫu từ dữ liệu khổng lồ thì hẳn sẽ khá là khách quan ở một mức độ nào đó. Nhưng mức độ đó là bao nhiêu thì mình vẫn luôn đặt câu hỏi.
Cho đến khi tình cờ đọc được bài phân tích của 1 nhóm nghiên cứu đến từ đại học Havard với tiêu đề "Which humans?", mình cảm thấy khá thú vị.

Báo cáo chỉ ra rằng các mô hình AI lớn nhất (LLMs) đang "thiên vị" nặng. Nhưng không phải kiểu thiên vị thông thường, mà là thiên vị văn hoá. Nghiên cứu chỉ ra rằng các LLM này thực sự là một ngoại lệ (outlier) khi so sánh với kho dữ liệu tâm lý quy mô lớn của toàn cầu. Chúng phớt lờ sự đa dạng tâm lý khổng lồ của loài người.
Các nhà khoa học gọi đây là "thiên vị WEIRD" (WEIRD bias).
WEIRD là từ viết tắt của: Western (Tây phương), Educated (Có giáo dục), Industrialized (Công nghiệp hóa), Rich (Giàu có), và Democratic (Dân chủ). Đây là nhóm người có tâm lý "khác thường" (psychologically peculiar) nếu nhìn trên bối cảnh toàn cầu và lịch sử. Họ chỉ chiếm một phần nhỏ dân số thế giới, nhưng lại là những người tạo ra phần lớn dữ liệu văn bản trên Internet, khiến cho dữ liệu đào tạo AI bị "thiên vị WEIRD một cách không cân xứng" (disproportionately WEIRD-biased).
Và kết quả là gì? Các tác giả nghiên cứu đã đưa ra một kết luận đắt giá: "WEIRD in, WEIRD out" (Đầu vào WEIRD, đầu ra WEIRD).
AI không "giống người" (human-like). Nó "giống người WEIRD" (WEIRD-like). Các mô hình này "thừa hưởng một tâm lý WEIRD" và giống nhất với tâm lý của người dân từ các xã hội WEIRD.
Ví dụ như: Khi được hỏi về giá trị sống (như thái độ chính trị, giá trị xã hội), AI trả lời giống một người Mỹ. Phân tích cụm cho thấy GPT nằm gần nhất với Hoa Kỳ và Uruguay. Khi làm bài test tư duy, nó tư duy "phân tích" (analytic) – một đặc trưng của người WEIRD. Trong khi đó, các nền văn hóa ít WEIRD hơn có xu hướng tư duy "tổng thể" (holistic) như các nước Á Đông.

Biểu đồ này cho thấy GPT có tỷ lệ lựa chọn "phân tích" cực cao, tương đồng với các quốc gia như Hà Lan, Phần Lan và Thụy Điển.
Điều này gợi mở điều gì cho Marketer & Nhà quản lý?
Nếu bạn là marketer ở Việt Nam và dùng AI để "thấu hiểu" khách hàng, có rủi ro nào không? Liệu AI có đang "thấu" khách hàng Việt qua lăng kính của một người New York? Liệu chúng ta có tạo ra một chiến dịch đề cao "chủ nghĩa cá nhân" (một giá trị WEIRD) trong khi insight thật của thị trường lại là "tính cộng đồng"?
Và nếu bạn là nhà quản lý dùng AI để lọc CV, liệu AI (được huấn luyện bởi dữ liệu WEIRD) có vô tình "chấm điểm thấp" cho những ứng viên có lối tư duy "tổng thể", vốn là thế mạnh của người Á Đông?
AI có vẻ giống một tấm gương. Vấn đề là nó đang phản chiếu một góc rất hẹp của nhân loại.
Liệu AI có "hoàn hảo"?
Thật ra chúng ta đều biết với nhau rằng chẳng có điều gì được gọi là hoàn hảo, nên chữ "hoàn hảo" ở đây mình dùng chỉ hàm ý một định kiến (perception) mà người sử dụng AI dành cho AI khi tin vào kết quả mà AI trả ra là đủ hoàn hảo, để dựa vào đó đưa ra quyết định cho riêng mình trong 1 vài trường hợp.
Nếu vấn đề "WEIRD" là một thách thức về "dữ liệu đầu vào" - một bài toán cực kỳ phức tạp về cách định nghĩa và cân bằng sự đa dạng văn hoá mà ngay cả giới khoa học vẫn đang nỗ lực giải quyết, thì câu hỏi nhỏ thứ hai này mở ra một thảo luận về giới hạn mang tính bản chất.
Có một buổi tối chồng mình đã cho cả nhà xem 1 video về Định lý Bất toàn của Godel (Godel's Incompleteness Theorems). Đây có thể xem là một phát kiến vĩ đại, sánh ngang Thuyết tương đối của Albert Einstein. Thật sự khó là hiểu sâu và hiểu hết định lý này vì sự phức tạp của nó nhưng nói một cách nôm nay để bạn dễ hình dung thì mình chia sẻ ngắn gọn 2 ý chính trong định lý này như sau:
Bất kỳ một hệ thống logic nào (như toán học, và có lẽ là cả AI) đủ mạnh, nó đều không đầy đủ (incomplete). Tức là, sẽ luôn tồn tại những sự thật mà hệ thống đó biết là đúng nhưng không thể chứng minh được.
Giữa "đúng" và "sai" còn có một vùng mênh mông, đó là "cái không quyết định được" (the undecidable).
Tại sao điều này lại quan trọng?
Điều này làm mình suy ngẫm về AI. Dù AI hiện đại không phải là hệ thống logic hình thức mà Godel mô tả mà dựa trên xác suất, chúng vẫn vận hành dựa trên tính toán. Phép ẩn dụ này giúp ta hình dung về giới hạn của AI, chúng dường như thiếu một cơ chế cho "vùng không quyết định được" này.
Nhưng con người chúng ta thì sao? Chúng ta là thứ sinh vật tuyệt vời và cũng đầy rắc rối vì chúng ta sống ở chính "vùng không quyết định được" đó.
Chúng ta gọi nó là trực giác (intuition), niềm tin (faith), đạo đức (ethics), và văn hóa (culture).
AI có thể tính toán, nhưng nó không thể cảm được. Nó không thể yêu. Có một câu nói bất hủ của Gödel: "Bộ não là một cái máy tính kết nối với một linh hồn (a computing machine connected with a spirit)".
Phải chăng, nếu AI có thể là cái "máy tính" siêu phàm, con người là "linh hồn"? Tất nhiên, đây là một suy nghĩ mang tính phỏng suy cá nhân của mình, có chút triết học để chúng ta tư duy về giới hạn. Việc áp dụng định lý này cho AI hiện đại là một phép ẩn dụ thôi, chứ không phải là một chứng minh khoa học.
Nói về ranh giới mong manh giữa "máy tính" và "linh hồn" này, chúng ta đổi mood một chút với "Her" (2013). Mình xem bộ phim này lần đầu cách đây 12 năm và xem lại gần nhất vào tháng 09 vừa rồi trên chuyến bay từ Canada về Việt Nam. Thật sự cảm giác rất khó tả khi xem lại, có chút buồn day dứt theo mạch phim nhưng kèm theo nỗi sợ hãi về một tương lai với AI. Bộ phim chính là một minh họa tuyệt vời cho chính "vùng không quyết định được" - nơi logic thuần túy dừng lại và tình yêu, sự cô đơn, và kết nối bắt đầu.
Nếu nghĩ AI lo phần logic, còn con người chúng ta lo phần "linh hồn" (đạo đức, sáng tạo, trực giác) thì mọi thứ thật đơn giản. Công việc của chúng ta thật cao cả!
Nhưng rồi một câu hỏi khác nảy ra: Mình có đang "lãng mạn hóa" con người không?
Chúng ta chê AI "thiên vị WEIRD". Nhưng "trực giác" của con người thì sao? Liệu trực giác của chúng ta có "trong sạch" không? Hay nó cũng đầy rẫy thiên vị (thiên vị xác nhận, thiên vị nhóm, định kiến ngầm...)?
Chúng ta nói AI "lạnh lùng". Nhưng chẳng phải chính những "cảm xúc" không kiểm soát của con người đã gây ra vô số quyết định thảm họa hay sao?
Chúng ta đang vẽ ra một ranh giới Logic (AI) vs. Cảm xúc (Người) quá rạch ròi. Phải chăng đây mới là sự thiển cận?
Thực tế luôn lộn xộn hơn nhiều.
Thực tế là có nhiều nhà quản lý đầy thiên vị đang dùng một công cụ AI cũng đầy thiên vị để ra quyết định.
Mình bắt đầu nghĩ rằng, giá trị lớn nhất của AI không phải là nó cho chúng ta câu trả lời. Giá trị lớn nhất của nó là nó đặt ra cho chúng ta những câu hỏi sắc sảo hơn.
Thay vì hỏi "Làm sao để dùng AI thấu hiểu khách hàng?", có lẽ câu hỏi nên là: "AI đang cho thấy chúng ta thiếu hiểu biết về văn hoá bản địa của mình ở điểm nào?"
Thay vì hỏi "Làm sao để AI ra quyết định đạo đức?", có lẽ câu hỏi nên là: "Việc cố gắng dạy đạo đức cho AI đã phơi bày sự mâu thuẫn và bất toàn trong chính hệ thống đạo đức của chúng ta ra sao?"
AI không phải là một nhà hiền triết để chúng ta hỏi đáp. Nó giống một người bạn phản biện hơn. Nó là một tấm gương, vừa "méo mó", vừa "không hoàn hảo" và cho ta thêm 1 góc nhìn khác để có được sự đa chiều trong tư duy.
Nhiệm vụ của chúng ta, những marketer và nhà quản lý, không phải là tin tưởng tấm gương đó một cách mù quáng, mà là:
Nhận ra sự "méo mó" của nó.
Lấp đầy phần "không hoàn hảo" của nó.
Và quan trọng nhất, là dùng nó để "soi" lại chính những thiên vị và sự bất toàn trong tư duy của chúng ta.
Cuối cùng, thực tế đáng buồn là AI đang thay thế một số công việc của chúng ta, như chúng ta đã thấy. Nhưng nó không đến đây để thay thế tất cả. Nó đến đây để buộc chúng ta phải trở thành "người" hơn – một phiên bản "người" sâu sắc hơn, tự ý thức hơn, và bớt "thiên vị" hơn.
Nếu có ai hỏi mình "biết sử dụng AI một cách thông minh" nghĩa là gì?
Mình không phải master để có ngay câu trả lời, nhưng ít nhất với mình nó không chỉ là biết gõ prompt. Đối với mình, nó là việc xây dựng một "quy trình làm việc cộng hưởng" (Human-AI Workflow). Đây là quy trình mình dùng để làm việc cùng AI thời gian qua:
Bước 1: Mình luôn dành 1 khoảng thời gian suy nghĩ không máy tính & một mình về mục tiêu cũng như những kết quả kỳ vọng cho 1 công việc cụ thể mà mình có ý định sử dụng cùng AI. Việc này giống như việc nghĩ chiến lược trước khi làm kế hoạch. Nó giúp chúng ta có 1 bộ filter.
Bước 2: Dùng AI như một công cụ tìm kiếm & brainstorming. Đây là lúc chúng ta tận dụng tốc độ và khả năng truy xuất dữ liệu khổng lồ của máy tính.
Bước 3: Phân tích kết quả của AI trả ra và bắt đầu lọc ý tưởng, thông tin dựa trên mục tiêu và các tiêu chí mà mình đã đặt ra từ đầu. Khả năng đặt câu hỏi là một kỹ năng rất quan trọng khi làm việc cùng các công cụ AI.
Bước 4: Tạo dấu ấn cá nhân, đặc biệt là phần cảm xúc. Mình sẽ luôn hỏi liệu nội dung này có chạm đến người đọc/ người xem/ người tham gia. Sự sáng tạo & thấu cảm nằm nhiều ở bước này.
Bước 5: Cuối cùng mình sẽ mài giũa câu chữ, cân nhắc các rủi ro và hoàn thiện cuối cùng.
Mình nói có thể đến thời điểm này là vì biết đâu ngay ngày mai, chúng ta sẽ gặp các phiên bản AI tương lai trở nên "đa văn hóa" hơn. Khi đó có lẽ chúng ta sẽ hãy cần đi cho rõ câu hỏi muôn thuở "chúng ta là ai?"
Và tin tức tuần này đã chứng minh, hơn bao giờ hết, rằng con người biết sử dụng AI sẽ thay thế những con người không biết sử dụng AI (hay sử dụng chúng không hiệu quả).
Bạn nghĩ sao?
Viết đến đây mình nghĩ mình sẽ hẹn bạn vào W&W không xa vì mình vừa lóe lên một câu hỏi khác về cái gọi là "thông minh" khi dùng AI, liệu chúng ta có đang ảo ảnh về sự thông thái khi dùng AI?
Jasmine Nguyễn
Nguồn thông tin:
Nagel, E., & Newman, J. R. (2001). Gödel's proof (Rev. ed.). New York University Press. (Original work published 1958)
Atari, M., Xue, M. J., Park, P. S., Blasi, D. E., & Henrich, J. (2023). Which Humans?. Department of Human Evolutionary Biology, Harvard University.
Series YT videos về Định lý Bất toàn của Godel: https://www.youtube.com/watch?v=wxXznN1bGFU của giáo sư Phạm Việt Hưng.



Bình luận