Đọc văn bản sau và trả lời các câu hỏi từ 1 đến 10:
ĐẢM BẢO AN TOÀN CHO TRẺ EM TRONG THỜI ĐẠI AI
[1] Hiện nay, rất ít nhà phát triển AI có chính sách rõ ràng về việc đảm bảo an toàn cho trẻ em khi sử dụng công nghệ mới mẻ này. Trẻ em ngày nay tiếp xúc nhiều với các thiết bị điện tử và phần mềm tự động, tuy nhiên, những sự cố xảy ra đã đặt ra câu hỏi lớn về an toàn của trẻ khi tương tác với các công nghệ này.
[2] Một sự cố nổi bật xảy ra vào năm 2021 khi Alexa, trợ lý giọng nói AI của Amazon, đã đề xuất cho một đứa trẻ 10 tuổi chạm đồng xu vào phích cắm điện. Đứa trẻ yêu cầu Alexa đưa ra một "thử thách" và nhận được phản hồi nguy hiểm này. May mắn thay, mẹ của đứa bé đã can thiệp kịp thời. Đây không phải là trường hợp duy nhất. Năm ngoái, My AI của Snapchat cũng cung cấp lời khuyên không phù hợp cho một bé gái 13 tuổi (do một nhà nghiên cứu trưởng thành đóng giả). Dù các công ty phản ứng bằng cách sửa lỗi và cải tiến biện pháp an toàn, nhưng theo các nhà nghiên cứu, cần có biện pháp chủ động hơn để đảm bảo AI an toàn cho trẻ em ngay từ đầu.
[3] TS. Nomisha Kurian từ Đại học Cambridge cho rằng trẻ em thường bị bỏ qua khi phát triển AI. Hiện nay, rất ít nhà phát triển và công ty có chính sách rõ ràng về vấn đề này. TS. Kurian đã nghiên cứu các tương tác giữa AI và trẻ em để phát hiện những rủi ro tiềm ẩn. Bà nhận thấy các mô hình ngôn ngữ lớn (LLM) thường không thể hiểu rõ các khía cạnh trừu tượng, cảm xúc, và khó đoán định trong cuộc trò chuyện với trẻ em. Điều này có thể dẫn đến các phản hồi không an toàn.
[4] Các chatbot AI có khả năng ngôn ngữ ấn tượng nhưng lại gặp khó khăn trong việc thấu hiểu và phản hồi với cảm xúc của trẻ em. Hơn nữa, trẻ em thường có xu hướng tiết lộ thông tin cá nhân nhiều hơn và coi chatbot như “người” hơn người lớn, điều này tạo ra nhiều nguy cơ. Nghiên cứu cũng chỉ ra rằng trẻ em sử dụng chatbot thường không được giám sát chặt chẽ. Một nghiên cứu của Common Sense Media cho thấy 50% học sinh từ 12 đến 18 tuổi đã sử dụng Chat GPT cho việc học, nhưng chỉ có 26% phụ huynh biết điều này. TS. Kurian không cho rằng cần cấm AI, mà cần làm cho nó an toàn hơn. Bà đề xuất một khuôn khổ gồm 28 câu hỏi để các công ty, giáo viên, phụ huynh và nhà phát triển AI suy nghĩ một cách hệ thống về cách giữ an toàn cho người dùng trẻ tuổi khi họ tương tác với các chatbot AI.
[5] Tóm lại, có nhiều lý do khiến nhiều AI hiện tại chưa an toàn cho trẻ em. Dưới đây là một số lý do chính:
- Nội dung không phù hợp: AI có thể truy cập và hiển thị nội dung không phù hợp với trẻ em, chẳng hạn như nội dung bạo lực, ngôn ngữ không phù hợp, hoặc thông tin nhạy cảm.
- Quyền riêng tư và bảo mật: Trẻ em có thể không hiểu rõ về tầm quan trọng của việc bảo vệ thông tin cá nhân. AI thu thập dữ liệu mà không có sự kiểm soát và bảo mật thích hợp có thể dẫn đến việc lộ thông tin cá nhân của trẻ em.
- Tương tác không an toàn: AI chatbot hoặc trợ lý ảo có thể bị lạm dụng bởi những kẻ xấu, sử dụng để lừa gạt hoặc gây hại cho trẻ em thông qua các tương tác không an toàn.
- Thiếu kiểm soát nội dung: Nhiều hệ thống AI không có cơ chế kiểm soát nội dung hiệu quả, dẫn đến việc hiển thị các thông tin không chính xác, thiếu kiểm chứng hoặc mang tính định hướng tiêu cực.
- Ảnh hưởng tâm lý và hành vi: Trẻ em dễ bị ảnh hưởng bởi các nội dung và tương tác mà AI cung cấp. Điều này có thể dẫn đến những tác động tiêu cực về tâm lý và hành vi, chẳng hạn như giảm khả năng tư duy sáng tạo hoặc tạo ra những thói quen xấu.
- Thiếu quy định và hướng dẫn: Hiện nay, các quy định và hướng dẫn về việc sử dụng AI cho trẻ em vẫn còn hạn chế. Điều này dẫn đến việc các nhà phát triển AI không tuân thủ các tiêu chuẩn an toàn cần thiết.
[6] Việc bảo đảm an toàn cho trẻ em khi sử dụng AI không chỉ là trách nhiệm của các công ty công nghệ mà còn cần sự phối hợp của toàn xã hội. Bằng cách áp dụng những biện pháp chủ động và hợp lý, chúng ta có thể bảo vệ trẻ em khỏi những nguy cơ tiềm ẩn và giúp chúng tận dụng tối đa lợi ích từ công nghệ mới mẻ này. Để bảo vệ trẻ em, cần có sự hợp tác giữa các nhà phát triển công nghệ, phụ huynh, nhà giáo dục và các cơ quan quản lý để đảm bảo rằng AI được thiết kế và sử dụng một cách an toàn và có trách nhiệm.
P.A.T (NASATI), theo https://www.forbes.com/, 8/2024)
Trả lời cho các câu 41, 42, 43, 44, 45, 46, 47, 48, 49, 50 dưới đây:
Vấn đề trung tâm được đặt ra ngay từ đoạn [1] là:
Đọc văn bản sau và trả lời các câu hỏi từ 1 đến 10:
ĐẢM BẢO AN TOÀN CHO TRẺ EM TRONG THỜI ĐẠI AI
[1] Hiện nay, rất ít nhà phát triển AI có chính sách rõ ràng về việc đảm bảo an toàn cho trẻ em khi sử dụng công nghệ mới mẻ này. Trẻ em ngày nay tiếp xúc nhiều với các thiết bị điện tử và phần mềm tự động, tuy nhiên, những sự cố xảy ra đã đặt ra câu hỏi lớn về an toàn của trẻ khi tương tác với các công nghệ này.
[2] Một sự cố nổi bật xảy ra vào năm 2021 khi Alexa, trợ lý giọng nói AI của Amazon, đã đề xuất cho một đứa trẻ 10 tuổi chạm đồng xu vào phích cắm điện. Đứa trẻ yêu cầu Alexa đưa ra một "thử thách" và nhận được phản hồi nguy hiểm này. May mắn thay, mẹ của đứa bé đã can thiệp kịp thời. Đây không phải là trường hợp duy nhất. Năm ngoái, My AI của Snapchat cũng cung cấp lời khuyên không phù hợp cho một bé gái 13 tuổi (do một nhà nghiên cứu trưởng thành đóng giả). Dù các công ty phản ứng bằng cách sửa lỗi và cải tiến biện pháp an toàn, nhưng theo các nhà nghiên cứu, cần có biện pháp chủ động hơn để đảm bảo AI an toàn cho trẻ em ngay từ đầu.
[3] TS. Nomisha Kurian từ Đại học Cambridge cho rằng trẻ em thường bị bỏ qua khi phát triển AI. Hiện nay, rất ít nhà phát triển và công ty có chính sách rõ ràng về vấn đề này. TS. Kurian đã nghiên cứu các tương tác giữa AI và trẻ em để phát hiện những rủi ro tiềm ẩn. Bà nhận thấy các mô hình ngôn ngữ lớn (LLM) thường không thể hiểu rõ các khía cạnh trừu tượng, cảm xúc, và khó đoán định trong cuộc trò chuyện với trẻ em. Điều này có thể dẫn đến các phản hồi không an toàn.
[4] Các chatbot AI có khả năng ngôn ngữ ấn tượng nhưng lại gặp khó khăn trong việc thấu hiểu và phản hồi với cảm xúc của trẻ em. Hơn nữa, trẻ em thường có xu hướng tiết lộ thông tin cá nhân nhiều hơn và coi chatbot như “người” hơn người lớn, điều này tạo ra nhiều nguy cơ. Nghiên cứu cũng chỉ ra rằng trẻ em sử dụng chatbot thường không được giám sát chặt chẽ. Một nghiên cứu của Common Sense Media cho thấy 50% học sinh từ 12 đến 18 tuổi đã sử dụng Chat GPT cho việc học, nhưng chỉ có 26% phụ huynh biết điều này. TS. Kurian không cho rằng cần cấm AI, mà cần làm cho nó an toàn hơn. Bà đề xuất một khuôn khổ gồm 28 câu hỏi để các công ty, giáo viên, phụ huynh và nhà phát triển AI suy nghĩ một cách hệ thống về cách giữ an toàn cho người dùng trẻ tuổi khi họ tương tác với các chatbot AI.
[5] Tóm lại, có nhiều lý do khiến nhiều AI hiện tại chưa an toàn cho trẻ em. Dưới đây là một số lý do chính:
- Nội dung không phù hợp: AI có thể truy cập và hiển thị nội dung không phù hợp với trẻ em, chẳng hạn như nội dung bạo lực, ngôn ngữ không phù hợp, hoặc thông tin nhạy cảm.
- Quyền riêng tư và bảo mật: Trẻ em có thể không hiểu rõ về tầm quan trọng của việc bảo vệ thông tin cá nhân. AI thu thập dữ liệu mà không có sự kiểm soát và bảo mật thích hợp có thể dẫn đến việc lộ thông tin cá nhân của trẻ em.
- Tương tác không an toàn: AI chatbot hoặc trợ lý ảo có thể bị lạm dụng bởi những kẻ xấu, sử dụng để lừa gạt hoặc gây hại cho trẻ em thông qua các tương tác không an toàn.
- Thiếu kiểm soát nội dung: Nhiều hệ thống AI không có cơ chế kiểm soát nội dung hiệu quả, dẫn đến việc hiển thị các thông tin không chính xác, thiếu kiểm chứng hoặc mang tính định hướng tiêu cực.
- Ảnh hưởng tâm lý và hành vi: Trẻ em dễ bị ảnh hưởng bởi các nội dung và tương tác mà AI cung cấp. Điều này có thể dẫn đến những tác động tiêu cực về tâm lý và hành vi, chẳng hạn như giảm khả năng tư duy sáng tạo hoặc tạo ra những thói quen xấu.
- Thiếu quy định và hướng dẫn: Hiện nay, các quy định và hướng dẫn về việc sử dụng AI cho trẻ em vẫn còn hạn chế. Điều này dẫn đến việc các nhà phát triển AI không tuân thủ các tiêu chuẩn an toàn cần thiết.
[6] Việc bảo đảm an toàn cho trẻ em khi sử dụng AI không chỉ là trách nhiệm của các công ty công nghệ mà còn cần sự phối hợp của toàn xã hội. Bằng cách áp dụng những biện pháp chủ động và hợp lý, chúng ta có thể bảo vệ trẻ em khỏi những nguy cơ tiềm ẩn và giúp chúng tận dụng tối đa lợi ích từ công nghệ mới mẻ này. Để bảo vệ trẻ em, cần có sự hợp tác giữa các nhà phát triển công nghệ, phụ huynh, nhà giáo dục và các cơ quan quản lý để đảm bảo rằng AI được thiết kế và sử dụng một cách an toàn và có trách nhiệm.
P.A.T (NASATI), theo https://www.forbes.com/, 8/2024)
Trả lời cho các câu 41, 42, 43, 44, 45, 46, 47, 48, 49, 50 dưới đây:
Quảng cáo
Trả lời:
Đáp án: C
Giải thích:
Đoạn [1] nhấn mạnh “rất ít nhà phát triển AI có chính sách rõ ràng” → trọng tâm là sự thiếu chính sách bảo vệ trẻ em.
Câu hỏi cùng đoạn
Câu 2:
Thao tác lập luận chính được sử dụng ở đoạn [5] là:
Đáp án: C
Giải thích:
Đoạn [5] đưa ra hàng loạt nguyên nhân dưới dạng gạch đầu dòng → thao tác liệt kê.
Câu 3:
Theo văn bản, AI chưa an toàn với trẻ em chủ yếu vì:
Đáp án: B
Giải thích:
Văn bản nhấn mạnh hai vấn đề: thiếu kiểm soát nội dung và AI không hiểu cảm xúc, tâm lý trẻ em.
Câu 4:
Chi tiết về sự cố Alexa năm 2021 có tác dụng:
Đáp án: B
Giải thích:
Đây là dẫn chứng thực tế để làm rõ nguy cơ AI có thể gây hại cho trẻ em.
Câu 5:
Nguyên nhân sự cố Alexa 2021?
Đáp án: A
Giải thích:
Văn bản ghi rõ: đứa trẻ yêu cầu Alexa đưa ra “thử thách” → AI phản hồi nguy hiểm.
Câu 6:
Việc trích dẫn nghiên cứu của Common Sense Media nhằm:
Giải thích:
Số liệu 50% – 26% làm tăng tính xác thực và sức thuyết phục.
Đáp án: A
Câu 7:
Theo TS. Nomisha Kurian, giải pháp không phải là:
Đáp án: A
Giải thích:
Bà không chủ trương cấm AI mà làm cho AI an toàn hơn.
Câu 8:
Ý nghĩa của việc nhấn mạnh “phối hợp toàn xã hội” là:
Đáp án: C
Câu 9:
Từ văn bản, có thể rút ra thái độ của tác giả là:
Đáp án: C
Câu 10:
Thông điệp sâu sắc nhất của văn bản là:
Đáp án: C
Giải thích:
Toàn văn hướng tới phát triển AI có trách nhiệm.
Hot: 1000+ Đề thi giữa kì 2 file word cấu trúc mới 2026 Toán, Văn, Anh... lớp 1-12 (chỉ từ 60k). Tải ngay
- Tuyển tập 30 đề thi đánh giá năng lực Đại học Quốc gia TP Hồ Chí Minh (2 cuốn) ( 140.000₫ )
- Tuyển tập 15 đề thi Đánh giá tư duy Đại học Bách Khoa Hà Nội 2025 (Tập 1) ( 39.000₫ )
- Tuyển tập 30 đề thi đánh giá năng lực Đại học Quốc gia Hà Nội 2025 (Tập 1) ( 39.000₫ )
- Tuyển tập 30 đề thi đánh giá năng lực Đại học Quốc gia Hà Nội, TP Hồ Chí Minh (2 cuốn) ( 150.000₫ )
CÂU HỎI HOT CÙNG CHỦ ĐỀ
Câu 1
Lời giải
Giải chi tiết:
a) Đúng: Vị trí sóng tăng cường lẫn nhau xuất hiện vân sáng.
b) Sai: Khoảng vân là khoảng cách giữa 2 vân sáng hoặc 2 vân tối liên tiếp.
c) Đúng: 6V DC là hiệu điện thế định mức một chiều 6V.
d) Sai: Khoảng cách 3 cặp khe trong đề bài cung cấp thực tế có giá trị khác (ví dụ 0,15 mm).
Đáp án cần chọn là: Đ; S; Đ; S
Câu 2
Lời giải
Đáp án: C
Giải thích:
Cụm từ “mãi mãi” thể hiện nỗi ám ảnh kéo dài, không phải cảm xúc nhất thời.
Câu 3
Lời giải
Bạn cần đăng ký gói VIP ( giá chỉ từ 199K ) để làm bài, xem đáp án và lời giải chi tiết không giới hạn.
Câu 4
Lời giải
Bạn cần đăng ký gói VIP ( giá chỉ từ 199K ) để làm bài, xem đáp án và lời giải chi tiết không giới hạn.
Câu 5
Lời giải
Bạn cần đăng ký gói VIP ( giá chỉ từ 199K ) để làm bài, xem đáp án và lời giải chi tiết không giới hạn.
Lời giải
Bạn cần đăng ký gói VIP ( giá chỉ từ 199K ) để làm bài, xem đáp án và lời giải chi tiết không giới hạn.