People don’t often get riled up about research, but when Facebook toye translation - People don’t often get riled up about research, but when Facebook toye Thai how to say

People don’t often get riled up abo

People don’t often get riled up about research, but when Facebook toyed with its members’ emotions without telling them, it stirred up plenty of feelings offline as well.

In June, researchers revealed in the Proceedings of the National Academy of Sciences that they had manipulated news feeds of unsuspecting Facebook users, influencing whether they felt positive or negative emotions. News of the experiment angered scores of users and privacy advocates. Before long, the journal backpedaled from its decision to publish the study with an “Editorial Expression of Concern,” admitting that participants may not have known they were guinea pigs and did not get the chance to opt out.
The experiment, conducted over one week in January 2012, looked at “emotional contagion” — whether user emotions would affect other users’ emotions online, as they do in person. Facebook used an algorithm to weed out posts with positive or negative words in the news feeds of 690,000 of its 1.3 billion users. Users who saw positive posts were more likely to post positive things than users who saw negative posts.

Privacy advocates demanded that the Federal Trade Commission investigate Facebook’s research practices since it had experimented on human subjects without their permission. The FTC, per its policy, declined to comment on whether they were looking into it. But before the kerfuffle, Facebook quietly changed its data use policy to allow research on people — four months after finishing the experiment.
A university institutional review board probably would have signed off on Facebook’s experiment, says Harvard Business School’s Michael Luca, who has received approval to conduct similar covert experiments with other companies’ websites. That’s because informed consent is not needed for research that subtly manipulates people without overtly lying to them and causes only minor harm, he says.

Months after the news broke, Facebook said it would step up training for its scientists and have its senior researchers scrutinize proposed studies on content “that may be considered deeply personal,” according to a blog post by Mike Schroepfer, Facebook’s chief technology officer. “We were unprepared for the reaction the paper received when it was published and have taken to heart the comments and criticism.”
0/5000
From: -
To: -
Results (Thai) 1: [Copy]
Copied!
คนมักจะไม่ได้รับ riled ขึ้นเกี่ยวกับวิจัย แต่เมื่อ Facebook toyed กับอารมณ์ของสมาชิกโดยไม่แจ้งว่า มันสะเทือนความรู้สึกแบบออฟไลน์เช่นในเดือนมิถุนายน นักวิจัยเผยในกระบวนการพิจารณาของสถาบันการศึกษาแห่งชาติวิทยาศาสตร์ที่ พวกเขาได้จัดการข่าวลวง Facebook ผู้ใช้ฟรี มีอิทธิพลต่อว่าพวกเขารู้สึกว่าอารมณ์บวก หรือลบ ข่าวการทดลองกริ้วคะแนนของผู้ใช้และผู้สนับสนุนการเก็บข้อมูลส่วนบุคคล นาน ราย backpedaled จากการตัดสินใจในการเผยแพร่การศึกษา ด้วยการ "บรรณาธิการนิพจน์ของกังวล ยอมรับว่า ผู้เรียนไม่อาจทราบพวกเขาตะเภา และไม่ได้รับโอกาสที่จะปฏิเสธการทดลอง ดำเนินการมากกว่าหนึ่งสัปดาห์ในเดือน 2012 มกราคม ดู "อารมณ์แพร่กระจาย" — ไม่ว่าผู้ใช้อารมณ์จะส่งผลต่ออารมณ์ของผู้ใช้อื่นออนไลน์ ในคน Facebook ใช้อัลกอริทึมบางกลุ่มโพสต์ที่บวก หรือลบคำในฟีดข่าวของ 690,000 ของผู้ใช้ 1.3 พันล้าน ผู้ที่เห็นโพสต์บวกมีโอกาสสิ่งบวกลงกว่าคนที่เห็นโพสต์ลบส่วนผู้สนับสนุนเรียกร้องว่า Federal Trade Commission ตรวจสอบปฏิบัติงานวิจัยของ Facebook เพราะมันมีทดลองในมนุษย์วิชาโดยไม่รับอนุญาต FTC ต่อนโยบาย ปฏิเสธที่จะแสดงความคิดเห็นว่าพวกเขากำลังมองลงไป แต่ก่อน kerfuffle, Facebook อย่างเงียบ ๆ การเปลี่ยนแปลงของนโยบายการใช้ข้อมูลเพื่อให้การวิจัยในคน — สี่เดือนหลังจากเสร็จสิ้นการทดลอง มหาวิทยาลัยที่มีคณะกรรมการสถาบันอาจจัดปิดในการทดลองของ Facebook พูดว่า Michael Luca Harvard Business School ที่ได้รับอนุมัติการดำเนินการทดลองอย่างลับ ๆ คล้ายกับเว็บไซต์ของบริษัทอื่น ๆ เขากล่าวว่า เป็น เพราะยินยอมไม่จำเป็นต้องสำหรับการวิจัยที่เน้นจัดการคนไม่โกหกพวกเขา overtly และทำให้เพียงเล็กน้อยอันตรายเดือนหลังจากที่ข่าวยากจน Facebook กล่าวว่า มันจะขึ้นฝึกอบรมของนักวิทยาศาสตร์ และมีนักวิจัยอาวุโสการพิจารณาศึกษาเสนอเนื้อหา "ที่อาจจะถือว่าส่วนลึก ตามบล็อกโพสต์ โดย Mike Schroepfer, Facebook ของหัวหน้าฝ่ายเทคโนโลยี "เราได้เกิดปฏิกิริยากระดาษที่ได้รับเมื่อมีการเผยแพร่การ และทำให้หัวใจความคิดเห็นและวิจารณ์"
Being translated, please wait..
Results (Thai) 2:[Copy]
Copied!
คนไม่มักจะได้รับโกรธขึ้นเกี่ยวกับการวิจัย แต่เมื่อ Facebook เล่นกับอารมณ์ความรู้สึกของสมาชิกโดยไม่บอกพวกเขาก็ขยับขึ้นความอุดมสมบูรณ์ของความรู้สึกแบบออฟไลน์เช่นกัน. ในเดือนมิถุนายนนักวิจัยเปิดเผยในการดำเนินการของสถาบันวิทยาศาสตร์แห่งชาติว่าพวกเขา ข่าวได้จัดการฟีดของผู้ใช้ Facebook ที่ไว้วางใจที่มีอิทธิพลต่อว่าพวกเขารู้สึกว่าอารมณ์บวกหรือลบ ข่าวการทดลองโกรธคะแนนของผู้ใช้และสนับสนุนความเป็นส่วนตัว ก่อนที่จะนานวารสาร backpedaled จากการตัดสินใจที่จะเผยแพร่การศึกษาที่มีการแสดงออก "บรรณาธิการกังวล" ยอมรับว่าผู้เข้าร่วมอาจจะไม่ได้รู้จักพวกเขาเป็นหนูตะเภาและไม่ได้รับโอกาสที่จะเลือกออก. การทดลองดำเนินการมานานกว่าหนึ่งสัปดาห์ ในเดือนมกราคม 2012 มองไปที่ "การติดเชื้อทางอารมณ์" - ไม่ว่าจะเป็นอารมณ์ความรู้สึกของผู้ใช้จะมีผลต่ออารมณ์ความรู้สึกของผู้ใช้คนอื่นออนไลน์ที่พวกเขาทำในคน Facebook ใช้อัลกอริทึมวัชพืชออกโพสต์ด้วยคำพูดเชิงบวกหรือเชิงลบในฟีดข่าวของ 690,000 1.3 พันล้านผู้ใช้ ผู้ใช้ที่เห็นโพสต์ในเชิงบวกมีแนวโน้มที่จะโพสต์สิ่งที่ดีกว่าผู้ใช้ที่เห็นโพสต์เชิงลบ. สนับสนุนความเป็นส่วนตัวเรียกร้องให้คณะกรรมาธิการการค้าของรัฐบาลกลางในการตรวจสอบการปฏิบัติงานวิจัยของ Facebook เพราะมันได้ทดลองในวิชามนุษย์ของพวกเขาไม่ได้รับอนุญาต FTC ที่ต่อนโยบายปฏิเสธที่จะแสดงความคิดเห็นว่าพวกเขากำลังมองเข้าไปในนั้น แต่ก่อนที่จะ kerfuffle ที่ Facebook อย่างเงียบ ๆ การเปลี่ยนแปลงข้อมูลของการใช้นโยบายที่จะช่วยให้การวิจัยในคน. - สี่เดือนหลังจากจบการทดลองคณะกรรมการตรวจสอบของมหาวิทยาลัยสถาบันอาจจะมีการลงนามในการทดลองของ Facebook, Harvard Business School โดยไมเคิล Luca ที่ได้รับการอนุมัติกล่าวว่า เพื่อดำเนินการทดลองแอบแฝงคล้ายกับเว็บไซต์ของ บริษัท อื่น ๆ นั่นเป็นเพราะความยินยอมไม่จำเป็นสำหรับการวิจัยที่อย่างละเอียดปรุงแต่งคนโดยไม่ต้องเปิดเผยนอนอยู่กับพวกเขาและทำให้เกิดอันตรายต่อเท่านั้นเล็ก ๆ น้อย ๆ เขากล่าว. เดือนหลังจากที่มีข่าวยากจน, Facebook กล่าวว่ามันจะก้าวขึ้นการฝึกอบรมสำหรับนักวิทยาศาสตร์และมีนักวิจัยอาวุโสกลั่นกรองเสนอ การศึกษาเกี่ยวกับเนื้อหา "ที่อาจได้รับการพิจารณาลึกส่วนบุคคล" ตามบล็อกโพสต์โดยไมค์ Schroepfer, เจ้าหน้าที่ฝ่ายเทคโนโลยีของ Facebook หัวหน้า "เราไม่ได้เตรียมตัวไว้สำหรับการเกิดปฏิกิริยากระดาษที่ได้รับเมื่อมันถูกตีพิมพ์และได้นำไปหัวใจความคิดเห็นและวิจารณ์."







Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2025 I Love Translation. All reserved.

E-mail: