People don’t often get riled up about research, but when Facebook toye translation - People don’t often get riled up about research, but when Facebook toye Thai how to say

People don’t often get riled up abo

People don’t often get riled up about research, but when Facebook toyed with its members’ emotions without telling them, it stirred up plenty of feelings offline as well.

In June, researchers revealed in the Proceedings of the National Academy of Sciences that they had manipulated news feeds of unsuspecting Facebook users, influencing whether they felt positive or negative emotions. News of the experiment angered scores of users and privacy advocates. Before long, the journal backpedaled from its decision to publish the study with an “Editorial Expression of Concern,” admitting that participants may not have known they were guinea pigs and did not get the chance to opt out.
The experiment, conducted over one week in January 2012, looked at “emotional contagion” — whether user emotions would affect other users’ emotions online, as they do in person. Facebook used an algorithm to weed out posts with positive or negative words in the news feeds of 690,000 of its 1.3 billion users. Users who saw positive posts were more likely to post positive things than users who saw negative posts.

Privacy advocates demanded that the Federal Trade Commission investigate Facebook’s research practices since it had experimented on human subjects without their permission. The FTC, per its policy, declined to comment on whether they were looking into it. But before the kerfuffle, Facebook quietly changed its data use policy to allow research on people — four months after finishing the experiment.
A university institutional review board probably would have signed off on Facebook’s experiment, says Harvard Business School’s Michael Luca, who has received approval to conduct similar covert experiments with other companies’ websites. That’s because informed consent is not needed for research that subtly manipulates people without overtly lying to them and causes only minor harm, he says.

Months after the news broke, Facebook said it would step up training for its scientists and have its senior researchers scrutinize proposed studies on content “that may be considered deeply personal,” according to a blog post by Mike Schroepfer, Facebook’s chief technology officer. “We were unprepared for the reaction the paper received when it was published and have taken to heart the comments and criticism.”
0/5000
From: -
To: -
Results (Thai) 1: [Copy]
Copied!
คนมักจะไม่ได้รับ riled ขึ้นเกี่ยวกับวิจัย แต่เมื่อ Facebook toyed กับอารมณ์ของสมาชิกโดยไม่แจ้งว่า มันสะเทือนความรู้สึกแบบออฟไลน์เช่นในเดือนมิถุนายน นักวิจัยเผยในกระบวนการพิจารณาของสถาบันการศึกษาแห่งชาติวิทยาศาสตร์ที่ พวกเขาได้จัดการข่าวลวง Facebook ผู้ใช้ฟรี มีอิทธิพลต่อว่าพวกเขารู้สึกว่าอารมณ์บวก หรือลบ ข่าวการทดลองกริ้วคะแนนของผู้ใช้และผู้สนับสนุนการเก็บข้อมูลส่วนบุคคล นาน ราย backpedaled จากการตัดสินใจในการเผยแพร่การศึกษา ด้วยการ "บรรณาธิการนิพจน์ของกังวล ยอมรับว่า ผู้เรียนไม่อาจทราบพวกเขาตะเภา และไม่ได้รับโอกาสที่จะปฏิเสธการทดลอง ดำเนินการมากกว่าหนึ่งสัปดาห์ในเดือน 2012 มกราคม ดู "อารมณ์แพร่กระจาย" — ไม่ว่าผู้ใช้อารมณ์จะส่งผลต่ออารมณ์ของผู้ใช้อื่นออนไลน์ ในคน Facebook ใช้อัลกอริทึมบางกลุ่มโพสต์ที่บวก หรือลบคำในฟีดข่าวของ 690,000 ของผู้ใช้ 1.3 พันล้าน ผู้ที่เห็นโพสต์บวกมีโอกาสสิ่งบวกลงกว่าคนที่เห็นโพสต์ลบส่วนผู้สนับสนุนเรียกร้องว่า Federal Trade Commission ตรวจสอบปฏิบัติงานวิจัยของ Facebook เพราะมันมีทดลองในมนุษย์วิชาโดยไม่รับอนุญาต FTC ต่อนโยบาย ปฏิเสธที่จะแสดงความคิดเห็นว่าพวกเขากำลังมองลงไป แต่ก่อน kerfuffle, Facebook อย่างเงียบ ๆ การเปลี่ยนแปลงของนโยบายการใช้ข้อมูลเพื่อให้การวิจัยในคน — สี่เดือนหลังจากเสร็จสิ้นการทดลอง มหาวิทยาลัยที่มีคณะกรรมการสถาบันอาจจัดปิดในการทดลองของ Facebook พูดว่า Michael Luca Harvard Business School ที่ได้รับอนุมัติการดำเนินการทดลองอย่างลับ ๆ คล้ายกับเว็บไซต์ของบริษัทอื่น ๆ เขากล่าวว่า เป็น เพราะยินยอมไม่จำเป็นต้องสำหรับการวิจัยที่เน้นจัดการคนไม่โกหกพวกเขา overtly และทำให้เพียงเล็กน้อยอันตรายเดือนหลังจากที่ข่าวยากจน Facebook กล่าวว่า มันจะขึ้นฝึกอบรมของนักวิทยาศาสตร์ และมีนักวิจัยอาวุโสการพิจารณาศึกษาเสนอเนื้อหา "ที่อาจจะถือว่าส่วนลึก ตามบล็อกโพสต์ โดย Mike Schroepfer, Facebook ของหัวหน้าฝ่ายเทคโนโลยี "เราได้เกิดปฏิกิริยากระดาษที่ได้รับเมื่อมีการเผยแพร่การ และทำให้หัวใจความคิดเห็นและวิจารณ์"
Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2024 I Love Translation. All reserved.

E-mail: