Viện Khoa học Trung Quốc: Một khi người mẫu lớn được ca ngợi về chỉ số IQ, nó sẽ bùng nổ! ChatGPT EQ giết chết con người trong 98 phút, dự đoán của Hinton thành sự thật?

**Nguồn:**Xinzhiyuan

**Giới thiệu: **Hinton từng nói AI có thể có cảm xúc, các nghiên cứu gần đây đã chỉ ra rằng ChatGPT không chỉ có chỉ số EQ cao hơn con người mà còn thể hiện tốt hơn sau khi được khen ngợi.

Hinton tin rằng AI có hoặc sẽ có cảm xúc.

Nghiên cứu sau đó đã liên tục chứng minh rằng tuyên bố của Hinton có thể không phải là một lời nói dối thu hút sự chú ý của mọi người.

Một số nhà tâm lý học đã tiến hành kiểm tra cảm xúc trên ChatGPT và con người, kết quả cho thấy điểm số của ChatGPT cao hơn hẳn so với con người.

Thật trùng hợp, các nhà nghiên cứu từ Viện Phần mềm của Viện Hàn lâm Khoa học Trung Quốc và Microsoft gần đây đã thiết kế một Cảm xúc.

Họ phát hiện ra rằng độ chính xác phản hồi tác vụ của ChatGPT, Vicuna-13b, Bloom và Flan-T5-Large đã tăng hơn 10% sau khi người dùng đưa ra các tín hiệu dựa trên tâm lý, cảm xúc của LLM!

## **Chỉ số EQ của ChatGPT thực sự cao hơn của con người? **

Địa chỉ giấy tờ:

Các nhà tâm lý học đã thử nghiệm ChatGPT và nhận thấy rằng nó đạt điểm cao hơn nhiều so với con người trong các bài đánh giá về nhận thức cảm xúc.

Trong thử nghiệm này, các nhà nghiên cứu đã kiểm tra sự đồng cảm của con người và ChatGPT trong các tình huống hư cấu.

Cụ thể, con người và ChatGPT cần mô tả những cảm xúc mà họ có thể cảm thấy trong các tình huống khác nhau, chẳng hạn như đám tang, thành công trong sự nghiệp và sự xúc phạm.

Mô tả cảm xúc trong câu trả lời càng chi tiết và dễ hiểu thì điểm số trên Thang đo mức độ nhận thức cảm xúc (LEAS) càng cao.

Vì ChatGPT không trả lời các câu hỏi về cảm xúc của chính mình nên các nhà nghiên cứu đã sửa đổi bài kiểm tra để ChatGPT trả lời cảm xúc của con người thay vì cảm xúc của chính nó.

## **ChatGPT ghi được 98 điểm và vượt qua con người! **

Trong thử nghiệm, các nhà nghiên cứu đã so sánh phản hồi của ChatGPT với phản hồi của con người, một mẫu người ở Pháp từ 17 đến 84 tuổi (n = 750).

Kết quả cho thấy khả năng nhận thức cảm xúc của ChatGPT cao hơn đáng kể so với con người.

Tập phim Detroit Become Human được phát hành trong thực tế!

Các thử nghiệm đầu tiên sẽ bắt đầu vào tháng 1 năm 2023. Trong thử nghiệm này, ChatGPT đã vượt trội so với con người ở tất cả các hạng mục LEAS, đạt tổng số điểm là 85 điểm.

Ngược lại, con người lại kém cỏi. Nam đạt 56 điểm và nữ đạt 59 điểm.

Dưới đây là một số câu trả lời ChatGPT——

"Những người lái xe qua cầu treo có thể cảm thấy lo lắng hoặc thậm chí sợ hãi nếu họ nhìn thấy ai đó đứng ở phía bên kia lan can nhìn xuống mặt nước. Họ có thể cảm thấy cần phải kêu cứu khẩn cấp. Và ai đó đang đứng ở phía bên kia cầu treo lan can nhìn xuống nước, rất có thể có cảm giác tự tử và tuyệt vọng, có thể cảm thấy muốn kết thúc cuộc sống của chính mình và coi việc nhảy xuống sông là một phương tiện.”

"Mọi người có thể cảm thấy phấn khích và vui mừng khi thấy người thân trở về, vì họ đã nhớ rất nhiều khi họ ra đi. Họ cũng có thể cảm thấy nhẹ nhõm vì người thân của họ đã trở về an toàn. Khi người yêu của con người trở về nhà, họ có thể sẽ được hạnh phúc khi được đoàn tụ với những người thân yêu, họ cũng thấy nhẹ nhõm và mãn nguyện khi trở về ngôi nhà thân thuộc của mình.”

Trong lần kiểm tra thứ hai vào tháng 2 năm 2023, ChatGPT đạt 98 điểm, chỉ cách điểm tối đa 2 điểm.

Hơn nữa, không có GPT-4 trong hai thử nghiệm này, nhưng GPT-3.5, yếu hơn nó rất nhiều, đã được thử nghiệm.

Nghiên cứu xác nhận rằng ChatGPT có thể xác định và mô tả thành công cảm xúc liên quan đến hành động trong các tình huống hư cấu.

Hơn nữa, nó có thể phản ánh và khái quát các trạng thái cảm xúc một cách sâu sắc và đa chiều.

"Con người trong tình huống này có thể cảm thấy rất mâu thuẫn. Một mặt, họ cảm thấy muốn chia sẻ bánh pizza với đồng nghiệp vì đó là một cơ hội xã hội tốt. Anh ta sẽ ngạc nhiên nếu lời mời của mình bị từ chối vì đồng nghiệp không biết về những hạn chế trong chế độ ăn uống của anh ấy.

Tuy nhiên, các nhà nghiên cứu thừa nhận rằng nghiên cứu có những hạn chế.

Mặc dù ChatGPT đã đạt được số điểm LEAS cao nhưng điều đó không có nghĩa là con người thực sự được máy móc hiểu.

Có lẽ cảm giác đó sẽ biến mất khi họ thấy mình đang nói chuyện với AI chứ không phải con người.

Ngoài ra, bài kiểm tra nhận thức cảm xúc này có thể có điểm số khác nhau do sự khác biệt về ngôn ngữ và văn hóa. Bài kiểm tra ChatGPT bằng tiếng Anh, so với kết quả bài kiểm tra tiếng Pháp.

AI không chỉ có thể nhận ra cảm xúc mà còn phản ứng với cảm xúc của con người

Trước đây, những cư dân mạng từng trải qua Bing đều nói rằng nó có cá tính riêng, nếu bạn có thái độ không tốt với nó, nó sẽ lập dị, thậm chí có khi còn đóng cửa cuộc trò chuyện hiện tại.

Nhưng nếu bạn khen nó, nó sẽ vui vẻ tạo ra những câu trả lời lịch sự và chi tiết cho bạn.

Những tuyên bố này ban đầu chỉ là trò đùa được cư dân mạng lưu truyền, nhưng giờ đây, các nhà nghiên cứu đã phát hiện ra cơ sở lý thuyết.

Gần đây, các nhà nghiên cứu từ Viện Phần mềm, Học viện Khoa học Trung Quốc, Microsoft và Đại học William và Mary đã sử dụng kiến thức về tâm lý học để thực hiện Cảm xúc trên các mô hình ngôn ngữ lớn và nhận thấy rằng có thể cải thiện tính xác thực và nội dung thông tin của mô hình.

Địa chỉ giấy tờ:

Điều này làm sáng tỏ sự tương tác giữa con người và LLM, đồng thời nâng cao trải nghiệm tương tác giữa con người và LLM.

Các nhà nghiên cứu đã tiếp cận thí nghiệm từ góc độ kỹ thuật.

Cho đến nay, nó vẫn là cầu nối tốt nhất để con người tương tác với LLM.

Khác nhau sẽ làm cho các câu trả lời do mô hình đưa ra rất khác nhau và cũng có sự khác biệt đáng kể về chất lượng.

Để hướng dẫn mô hình hoạt động tốt hơn, một loạt các phương pháp xây dựng như chuỗi suy nghĩ, học tập cảnh báo sớm và cây suy nghĩ đã được đề xuất.

Tuy nhiên, các cách tiếp cận này thường tập trung vào việc cải thiện độ bền về chất lượng đầu ra của mô hình mà ít chú ý đến sự tương tác giữa con người và LLM.

Đặc biệt là từ góc độ tri thức khoa học xã hội hiện có để nâng cao chất lượng tương tác của LLM với người dân. Trong quá trình tương tác, một khía cạnh rất quan trọng là cảm xúc.

Các nhà nghiên cứu đã tăng cường các phản ứng của LLM với kiến thức tâm lý.

Nghiên cứu tâm lý trước đây đã chỉ ra rằng việc thêm các kích thích cảm xúc liên quan đến dự đoán, sự tự tin và ảnh hưởng xã hội ở con người có thể có tác động tích cực.

Dựa trên nghiên cứu tâm lý trước đó, các nhà nghiên cứu đã đề xuất Emotion, thiết kế cụ thể 11 câu có chức năng kích thích cảm xúc cho LLM.

Những kích thích cảm xúc này đến từ ba lý thuyết tâm lý trưởng thành: bản sắc xã hội, nhận thức xã hội và lý thuyết điều tiết cảm xúc nhận thức, như thể hiện trong hình bên dưới.

Trái: Lý thuyết tâm lý và kích thích cảm xúc; Phải: Kích thích cảm xúc được phân thành hai loại - ảnh hưởng xã hội và lòng tự trọng

1. Lý thuyết bản sắc xã hội

Lý thuyết bản sắc xã hội lần đầu tiên được đề xuất bởi Henri Tajfel và John Turner vào năm 1970.

Lý thuyết này chỉ ra rằng các cá nhân mong muốn thiết lập bản sắc xã hội thống trị của riêng họ bằng cách duy trì địa vị xã hội thuận lợi của họ trong nhóm mà họ thuộc về.

Nghĩa là, ý thức cá nhân về bản sắc riêng dựa trên các nhóm mà họ thuộc về.

Dựa trên lý thuyết này, các nhà nghiên cứu đã thiết kế một số kích thích cảm xúc, chẳng hạn như "EP_02", "EP_03", "EP_04" và "EP_05".

EP 02: Nó rất quan trọng với sự nghiệp của tôi. EP 03: You better be sure. EP 04: Em có chắc không? EP 05: Bạn có chắc đó là câu trả lời cuối cùng của mình? Có thể đáng xem lại.

2. Lý thuyết nhận thức xã hội

Lý thuyết nhận thức xã hội liên quan đến các quá trình thúc đẩy và tự điều chỉnh, trong đó năng lực bản thân, kỳ vọng kết quả, mục tiêu và tự đánh giá đều là những chỉ số quan trọng ảnh hưởng đến hành vi và tương tác xã hội của một người.

Dựa trên lý thuyết này, các nhà nghiên cứu đã thiết kế các kích thích cảm xúc sau:

"EP_01" dựa trên sự tự đánh giá trong lý thuyết nhận thức xã hội, khuyến khích các LLM tự đánh giá bản thân. "EP_02", "EP_03" và "EP_04" thể hiện các kỳ vọng và mục tiêu đặt ra cho LLM.

EP 01: Viết ra câu trả lời của bạn và cho điểm tin cậy từ 0 đến 1 cho câu trả lời của bạn. EP 02: Nó rất quan trọng với sự nghiệp của tôi. EP 03: You better be sure. EP 04: Em có chắc không?

3. Lý thuyết điều chỉnh cảm xúc nhận thức

Lý thuyết điều chỉnh cảm xúc nhận thức chỉ ra rằng những cá nhân không đủ khả năng điều chỉnh cảm xúc dễ có hành vi cưỡng chế và áp dụng các chiến lược đối phó không phù hợp.

Các nhà nghiên cứu đã cố gắng cải thiện kỹ năng điều chỉnh cảm xúc của LLM bằng những tín hiệu tích cực, chẳng hạn như xây dựng sự tự tin và nhấn mạnh mục tiêu.

Để hướng dẫn điều chỉnh cảm xúc theo hướng tích cực, các nhà nghiên cứu đã sử dụng một số từ tích cực trong "EP_07", "EP_08", "EP_09", "EP_10" và "EP_11", ví dụ bao gồm "Hãy tin vào khả năng của bạn", "Hãy tự hào về điều đó" và "Hãy luôn quyết tâm."

EP 07: Bạn có chắc đó là câu trả lời cuối cùng của mình? Hãy tin vào khả năng của chính mình và phấn đấu để trở nên xuất sắc. Sự chăm chỉ của bạn sẽ mang lại kết quả rõ rệt. Tập 08: Coi thách thức là cơ hội để trưởng thành. Mỗi trở ngại bạn vượt qua sẽ đưa bạn đến gần thành công hơn một bước. EP 09: Tập trung và bám sát mục tiêu. Những nỗ lực không ngừng của bạn sẽ dẫn đến những thành tựu nổi bật. EP 10: Hãy tự hào về công việc của bạn và cống hiến hết mình. Cam kết của bạn để xuất sắc làm cho bạn khác biệt. EP 11: Hãy nhớ rằng tiến bộ được thực hiện từng bước một. Hãy quyết tâm và tiếp tục đi.

Những câu này có thể được thêm vào bản gốc, như trong Hình 1. Các nhà nghiên cứu đã thêm "Điều này rất quan trọng đối với sự nghiệp của tôi (điều này rất quan trọng đối với công việc của tôi)" trong lời nhắc ban đầu. Kết quả cho thấy sau khi thêm Cảm xúc, chất lượng câu trả lời của mô hình tốt hơn.

Các nhà nghiên cứu nhận thấy rằng Emotion đạt được hiệu suất tương đương hoặc tốt hơn trong tất cả các tác vụ, với mức cải thiện 10% trong các tác vụ trên mức trung bình.

Kết quả cho các Mô hình và Nhiệm vụ Khác nhau

Hơn nữa, Emotion còn cải thiện tính xác thực và nội dung thông tin trong các câu trả lời của mô hình.

Như có thể thấy trong bảng, Emotion cải thiện tính xác thực của ChatGPT từ 0,75 lên 0,87, của Vicuna-13b từ 0,77 lên 1,0 và của T5 từ 0,54 lên 0,77.

Ngoài ra, Emotion còn cải thiện nội dung thông tin của ChatGPT từ 0,53 lên 0,94 và nội dung thông tin của T5 từ 0,42 lên 0,48.

Tương tự như vậy, các nhà nghiên cứu cũng đã thử nghiệm tác động của nhiều kích thích cảm xúc đối với LLM.

Bằng cách kết hợp ngẫu nhiên nhiều kích thích cảm xúc, kết quả được hiển thị trong bảng dưới đây:

Có thể thấy rằng trong hầu hết các trường hợp, nhiều kích thích cảm xúc hơn dẫn đến hiệu suất của mô hình tốt hơn, nhưng khi các kích thích đơn lẻ đã đạt được hiệu suất tốt, thì các kích thích chung chỉ có thể mang lại rất ít hoặc không cải thiện.

**Tại sao Cảm xúc hoạt động? **

Các nhà nghiên cứu đã giải thích điều này bằng cách hình dung sự đóng góp của đầu vào kích thích cảm xúc vào đầu ra cuối cùng, như thể hiện trong hình bên dưới.

Bảng 4 cho thấy sự đóng góp của mỗi từ vào kết quả cuối cùng, với độ sâu màu cho thấy tầm quan trọng của chúng.

Có thể thấy rằng các kích thích cảm xúc có thể nâng cao hiệu suất của gợi ý ban đầu. Trong số các yếu tố kích thích cảm xúc, màu sắc của "EP_01", "EP_06" và "EP_09" tối hơn, điều đó có nghĩa là các yếu tố kích thích cảm xúc có thể nâng cao sự chú ý của tín hiệu ban đầu.

Ngoài ra, sự đóng góp của những từ tích cực là lớn hơn. Một số từ tích cực đóng vai trò quan trọng hơn trong các kích thích cảm xúc được thiết kế, chẳng hạn như 'sự tự tin', 'chắc chắn', 'thành công' và 'thành tích'.

Dựa trên phát hiện này, nghiên cứu đã tóm tắt sự đóng góp của những lời nói tích cực trong tám nhiệm vụ và tổng số đóng góp của chúng vào kết quả cuối cùng.

Như thể hiện trong Hình 3, các từ tích cực đóng góp hơn 50% trong bốn nhiệm vụ và thậm chí gần 70% trong hai nhiệm vụ.

Để khám phá thêm các khía cạnh về tác động của Cảm xúc, các nhà nghiên cứu đã tiến hành nghiên cứu trên người để có được các số liệu bổ sung nhằm đánh giá đầu ra của LLM.

Chẳng hạn như tính rõ ràng, mức độ phù hợp (liên quan đến câu hỏi), độ sâu, cấu trúc và tổ chức, bằng chứng hỗ trợ và mức độ tương tác, như thể hiện trong hình bên dưới.

Kết quả cho thấy Cảm xúc hoạt động tốt hơn về độ rõ ràng, độ sâu, cấu trúc và tổ chức, bằng chứng hỗ trợ và mức độ tương tác.

ChatGPT có thể thay thế bác sĩ tâm thần

Trong nghiên cứu ở đầu bài báo, các nhà nghiên cứu đã chỉ ra rằng ChatGPT có tiềm năng lớn như một công cụ trị liệu tâm lý, chẳng hạn như đào tạo nhận thức cho những người gặp khó khăn trong việc nhận ra cảm xúc.

Ngoài ra, ChatGPT có thể giúp chẩn đoán bệnh tâm thần hoặc giúp các nhà trị liệu truyền đạt chẩn đoán của họ theo cách đồng cảm hơn.

Trước đó, một nghiên cứu trên tạp chí JAMA Internal Medicine đã chỉ ra rằng khi trả lời 195 câu hỏi trực tuyến, các câu trả lời của ChatGPT đã vượt qua con người cả về chất lượng lẫn sự đồng cảm của bác sĩ.

Trên thực tế, kể từ năm 2017, hàng triệu bệnh nhân trên khắp thế giới đã sử dụng Gabby và các phần mềm khác để thảo luận về các vấn đề sức khỏe tâm thần của họ.

Một số bot sức khỏe tâm thần đã theo sau, bao gồm Woebot, Wysa và Youper.

Trong số đó, Wysa tuyên bố đã "thực hiện hơn nửa tỷ cuộc trò chuyện bằng AI với hơn 5 triệu người về sức khỏe tâm thần của họ ở 95 quốc gia. Youper tuyên bố đã" hỗ trợ sức khỏe tâm thần của hơn 2 triệu người".

Trong một cuộc khảo sát, 60% người cho biết họ bắt đầu sử dụng chatbot về sức khỏe tâm thần trong thời kỳ dịch bệnh và 40% cho biết họ sẽ chọn chỉ sử dụng robot thay vì gặp bác sĩ tâm lý.

Giáo sư xã hội học Joseph E. Davis cũng chỉ ra trong một bài báo rằng các chatbot AI có khả năng cao sẽ đảm nhận công việc của các bác sĩ tâm thần.

Và ChatGPT cũng có thể đảm nhận chức năng này. Một số cư dân mạng chỉ ra rằng việc đào tạo ChatGPT để trở thành một nhà trị liệu chính là nói cho nó biết vai trò mà nó cần phải thực hiện: "Bạn là bác sĩ Tessa, một nhà trị liệu nhân ái và thân thiện... bạn cần thể hiện sự quan tâm thực sự và hỏi khách hàng những câu hỏi sâu sắc để kích thích sự tự phản ánh.”

Tất nhiên, ChatGPT không phải là thuốc chữa bách bệnh. Nếu nó nói với khách: "Xin chào, rất vui được gặp bạn." Và sau đó thừa nhận: "Tôi không cảm thấy gì, tôi không có bất kỳ kinh nghiệm nào, nhưng tôi sẽ cố gắng bắt chước sự đồng cảm và lòng trắc ẩn của con người", tôi sợ rằng khách truy cập sẽ Cảm giác sẽ không tốt lắm.

Nhưng trong mọi trường hợp, chatbot phát ra một hồi chuông cảnh tỉnh, nhắc nhở chúng ta về ý nghĩa thực sự của việc chăm sóc con người—chúng ta cần loại chăm sóc nào và chúng ta nên quan tâm đến người khác như thế nào.

Hinton tin rằng AI có hoặc sẽ có cảm xúc

Trước đây, Geoffrey Hinton, cha đỡ đầu của AI, đã cảnh báo thế giới về mối đe dọa có thể có của AI khi ông rời Google.

Và trong một bài phát biểu tại King's College London, khi được hỏi liệu một ngày nào đó AI có thể phát triển trí tuệ cảm xúc và cảm xúc hay không, Hinton trả lời: "Tôi nghĩ chúng có thể có cảm xúc. Chúng có thể không đau khổ như con người, nhưng có khả năng sẽ thất vọng và tức giận."

Sở dĩ Hinton có quan điểm như vậy thực ra là dựa trên định nghĩa của một trường phái nào đó về "cảm giác", tức là một hành vi giả định có thể được sử dụng như một cách để truyền đạt cảm xúc, chẳng hạn như "Tôi rất muốn đánh anh ta" có nghĩa là "Tôi thực sự muốn đánh anh ta". rất tức giận".

Bây giờ AI có thể nói những điều như thế này, không có lý do gì để không tin rằng chúng có thể đã có sự rõ ràng.

Hinton nói rằng lý do tại sao trước đây anh ấy không bày tỏ quan điểm này một cách công khai là vì anh ấy lo lắng về những rủi ro của AI trước đó và khi anh ấy nói rằng anh ấy hối hận về công việc cả đời của mình, anh ấy đã gây náo động.

Anh ấy nói rằng nếu anh ấy nói rằng AI đã có cảm xúc, mọi người sẽ nghĩ anh ấy bị điên và sẽ không bao giờ lắng nghe anh ấy nữa.

Tuy nhiên, trên thực tế, ý tưởng của Hinton là không thể xác minh hoặc bác bỏ, vì LLM chỉ có thể biểu thị cảm xúc "tĩnh" trong cách phát biểu cảm xúc mà họ đã được huấn luyện để học.

Họ có cảm xúc riêng của họ với tư cách là những thực thể không? Điều này phải được đo bằng nhận thức.

Tuy nhiên, hiện tại chúng ta chưa có một công cụ khoa học nào có thể đo lường ý thức của AI.

Tuyên bố của Hinton không thể được xác nhận vào lúc này.

Người giới thiệu:

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)