Of Facebook’s 7,185 employees, Arturo Bejar may have the most difficult job.
No, he is not responsible for increasing advertising revenue or keeping the website alive 24 hours a day. Mr. Bejar has a much more inscrutable task: teaching the site’s 1.3 billion users, especially its tens of millions of teenagers, how to be nice and respectful to one another.
Respectful? Online? Ha! That’s never going to happen. Everyone knows that social media is an unwinnable game of who can be meaner. If Mr. Bejar thinks he can make Facebook users nice, he is — to borrow a popular Facebook comment — just stupid!
But that kind of response is exactly what Mr. Bejar is counting on. As the director of engineering for the Facebook Protect and Care team, 80-strong, he believes that most users are not trying to be mean and that they will retract a comment (and even feel bad about it) if they realize it has caused someone harm.
“The way our brains work, we have evolved to understand each other by tone of voice or seeing facial expressions, but that gets lost through the devices we use to communicate,” Mr. Bejar said last week in an interview at Facebook’s New York offices.
In other words, Mr. Bejar is trying to create empathy among Facebook users, in what used to happen in real settings like the playground through social cues like crying and laughter.
This may seem like a piffling side project to some. But I believe the success of social media largely depends on solving this problem and teaching users to be kinder and more empathetic. Most people I know who have quit services like Twitter and Instagram have done so because commenters were spiteful, insensitive or just plain nasty.
According to a report released this week by Pew Research’s Internet Project, 65 percent of young adults 18 to 29 in the United States said that they had been harassed online, and 92 percent had witnessed someone else being bullied.
But Facebook’s efforts to curb this may be working. The company told me that each week eight million Facebook members use tools that allow users to report a harmful post or photo. (The tools can be used by clicking on the little upside-down arrow in the upper right corner of a post or the options button at the bottom of photos.)
Mr. Bejar’s team designed these tools to let people know someone had hurt their feelings, and he said the system actually worked. (This is different from the newsfeed experiment in June, when Facebook received criticism for tinkering with people’s emotions as part of a psychological study to examine how emotions can be spread on social media.)
Creating empathy on Facebook has not been easy. Researchers have learned that a few letters can have a profound impact. For example, in the first iteration of these tools, Facebook gave users a short list of vague emotions — like “embarrassing” — to communicate why they wanted a post removed. At the time, 50 percent of users seeking to delete a post would use the tool, but when Facebook added the word “it’s” to create a complete sentence (“It’s embarrassing”), the interaction shot up to 78 percent.
Teenager are a particular focus, not just as victims of cyberbullying but because they sometimes lack the emotional maturity to handle negative posts.
Dr. Marc Brackett, director of the Yale Center for Emotional Intelligence, who is working with Facebook on this emotions project with the Protect and Care team, said their research found that teenagers need more pathways and options to voice their feelings.
On Facebook, teenagers are presented with more options than just “it’s embarrassing” when they want to remove a post. They are asked what’s happening in the post, how they feel about it and how sad they are. In addition, they are given a text box with a polite pre-written response that can be sent to the friend who hurt their feelings. (In early versions of this feature, only 20 percent of teenagers filled out the form. When Facebook added more descriptive language like “feelings” and “sadness,” the figure grew to 80 percent.)
“We’ve played around with having pre-populated messages versus no message at all,” Dr. Brackett said. “If kids are given a blank box, often times they are going to say things that are not going to be helpful,” including cursing at their friends. When Facebook offered more developed responses like “This post is mean. It makes me feel sad and I don’t want it on Facebook,” 85 percent of teenagers who wanted a post removed sent a message.
“When kids let someone know they’ve hurt their feelings in a personal way, there’s a strong likelihood that the other kid will take that down,” Dr. Brackett said.
Interestingly, more often than not, the posts were not meant to hurt, but were jokes lost in digital translation. When Facebook asked people why they shared a post that hurt someone else, around 90 percent of respondents said they thought their friends would like the post or would think it was funny. Only 2 percent of users wanted to provoke
Of Facebook’s 7,185 employees, Arturo Bejar may have the most difficult job.No, he is not responsible for increasing advertising revenue or keeping the website alive 24 hours a day. Mr. Bejar has a much more inscrutable task: teaching the site’s 1.3 billion users, especially its tens of millions of teenagers, how to be nice and respectful to one another.Respectful? Online? Ha! That’s never going to happen. Everyone knows that social media is an unwinnable game of who can be meaner. If Mr. Bejar thinks he can make Facebook users nice, he is — to borrow a popular Facebook comment — just stupid!But that kind of response is exactly what Mr. Bejar is counting on. As the director of engineering for the Facebook Protect and Care team, 80-strong, he believes that most users are not trying to be mean and that they will retract a comment (and even feel bad about it) if they realize it has caused someone harm.“The way our brains work, we have evolved to understand each other by tone of voice or seeing facial expressions, but that gets lost through the devices we use to communicate,” Mr. Bejar said last week in an interview at Facebook’s New York offices.In other words, Mr. Bejar is trying to create empathy among Facebook users, in what used to happen in real settings like the playground through social cues like crying and laughter.This may seem like a piffling side project to some. But I believe the success of social media largely depends on solving this problem and teaching users to be kinder and more empathetic. Most people I know who have quit services like Twitter and Instagram have done so because commenters were spiteful, insensitive or just plain nasty.According to a report released this week by Pew Research’s Internet Project, 65 percent of young adults 18 to 29 in the United States said that they had been harassed online, and 92 percent had witnessed someone else being bullied.But Facebook’s efforts to curb this may be working. The company told me that each week eight million Facebook members use tools that allow users to report a harmful post or photo. (The tools can be used by clicking on the little upside-down arrow in the upper right corner of a post or the options button at the bottom of photos.)Mr. Bejar’s team designed these tools to let people know someone had hurt their feelings, and he said the system actually worked. (This is different from the newsfeed experiment in June, when Facebook received criticism for tinkering with people’s emotions as part of a psychological study to examine how emotions can be spread on social media.)Creating empathy on Facebook has not been easy. Researchers have learned that a few letters can have a profound impact. For example, in the first iteration of these tools, Facebook gave users a short list of vague emotions — like “embarrassing” — to communicate why they wanted a post removed. At the time, 50 percent of users seeking to delete a post would use the tool, but when Facebook added the word “it’s” to create a complete sentence (“It’s embarrassing”), the interaction shot up to 78 percent.
Teenager are a particular focus, not just as victims of cyberbullying but because they sometimes lack the emotional maturity to handle negative posts.
Dr. Marc Brackett, director of the Yale Center for Emotional Intelligence, who is working with Facebook on this emotions project with the Protect and Care team, said their research found that teenagers need more pathways and options to voice their feelings.
On Facebook, teenagers are presented with more options than just “it’s embarrassing” when they want to remove a post. They are asked what’s happening in the post, how they feel about it and how sad they are. In addition, they are given a text box with a polite pre-written response that can be sent to the friend who hurt their feelings. (In early versions of this feature, only 20 percent of teenagers filled out the form. When Facebook added more descriptive language like “feelings” and “sadness,” the figure grew to 80 percent.)
“We’ve played around with having pre-populated messages versus no message at all,” Dr. Brackett said. “If kids are given a blank box, often times they are going to say things that are not going to be helpful,” including cursing at their friends. When Facebook offered more developed responses like “This post is mean. It makes me feel sad and I don’t want it on Facebook,” 85 percent of teenagers who wanted a post removed sent a message.
“When kids let someone know they’ve hurt their feelings in a personal way, there’s a strong likelihood that the other kid will take that down,” Dr. Brackett said.
Interestingly, more often than not, the posts were not meant to hurt, but were jokes lost in digital translation. When Facebook asked people why they shared a post that hurt someone else, around 90 percent of respondents said they thought their friends would like the post or would think it was funny. Only 2 percent of users wanted to provoke
การแปล กรุณารอสักครู่..

Facebook ของ 7185 พนักงาน , อาร์ตูโร่ เบยาร์ อาจมีงานที่ยากที่สุดไม่ เขาจะไม่รับผิดชอบสำหรับการเพิ่มรายได้โฆษณาหรือการรักษาเว็บไซต์มีชีวิตอยู่ตลอด 24 ชั่วโมง นายเบยาร์ มีงานมากลึกลับมากขึ้น : การสอนของเว็บไซต์ 1.3 พันล้านผู้ใช้ โดยเฉพาะอย่างยิ่งการนับล้านของวัยรุ่นว่าเป็นคนดี และเคารพซึ่งกันและกันเคารพ ? ออนไลน์ ? ฮ่าๆๆๆ นั้นจะไม่มีทางเกิดขึ้น ทุกคนรู้ดีว่าสื่อสังคมเป็น unwinnable เกมที่สามารถจะโหดขึ้น ถ้านายเบยาร์คิดว่าเขาสามารถทำให้ผู้ใช้ Facebook ดี เขาก็จะยืมที่เป็นที่นิยมของ Facebook แสดงความคิดเห็น - โง่ !แต่ชนิดของการเป็นสิ่งที่คุณเบยาร์เป็นที่พึ่ง เป็นผู้อำนวยการของวิศวกรรมสำหรับ Facebook ปกป้องและดูแลทีม 80 แรง เขาเชื่อว่าผู้ใช้ส่วนใหญ่จะไม่พยายามจะหมายถึงว่าพวกเขาจะถอนความคิดเห็น ( และแม้รู้สึกไม่ดีเกี่ยวกับมัน ) ถ้าพวกเขาทราบมันเกิดจากคนที่อันตราย" วิธีการทำงานสมองของเรา เราได้พัฒนาเพื่อให้เข้าใจซึ่งกันและกัน โดยเสียงหรือเห็นการแสดงออกทางสีหน้า แต่หลงทางผ่านอุปกรณ์ที่เราใช้ในการสื่อสาร " นายเบยาร์กล่าวว่าสัปดาห์สุดท้ายในการสัมภาษณ์ที่ Facebook ของนิวยอร์กสำนักงานในคำอื่น ๆที่คุณเบยาร์พยายามสร้างเอาใจใส่ของผู้ใช้ Facebook ในสิ่งที่เคยเกิดขึ้นในการตั้งค่าจริงเหมือนสนามเด็กเล่นผ่านคิวทางสังคม เช่น ร้องไห้และหัวเราะนี้อาจดูเหมือนโครงการด้าน piffling บาง แต่ผมเชื่อว่าความสำเร็จของสื่อสังคมส่วนใหญ่ขึ้นอยู่กับการแก้ไขปัญหานี้ และผู้ใช้สอนจะอ่อนโยนและเห็นอกเห็นใจมากขึ้น คนส่วนใหญ่รู้ว่าใครเลิกบริการเช่น Twitter และ Instagram ได้เพราะแสดงความคิดเห็นถูกอาฆาต ตายด้านหรือเพียงธรรมดาที่น่ารังเกียจตามรายงานที่เผยแพร่ในสัปดาห์นี้โดย Pew Research โครงการอินเทอร์เน็ต , 65 เปอร์เซ็นต์ของผู้ใหญ่หนุ่ม 18 ถึง 29 ในสหรัฐอเมริกากล่าวว่าพวกเขาถูกรังแกออนไลน์ และร้อยละ 92 เห็นคนอื่นถูกรังแกแต่ Facebook ของความพยายามที่จะควบคุมนี้จะทำงาน บริษัทบอกว่าแต่ละสัปดาห์ แปดล้านสมาชิก Facebook ใช้เครื่องมือที่ช่วยให้ผู้ใช้เพื่อรายงานโพสต์ที่เป็นอันตรายหรือภาพถ่าย ( เครื่องมือที่สามารถใช้โดยการคลิกที่ลูกศรเล็ก ๆน้อย ๆคว่ำอยู่มุมขวาด้านบนของโพสต์หรือเลือกปุ่มที่ด้านล่างของภาพ )ทีมของนายเบยาร์ออกแบบเครื่องมือเหล่านี้เพื่อให้คนรู้ว่า บางคนก็ทำร้ายความรู้สึกของพวกเขา และเขากล่าวว่าระบบจริงๆทำงาน ( ซึ่งแตกต่างจากแหล่งข่าวการทดลองในเดือนมิถุนายนเมื่อ Facebook ได้รับการวิจารณ์สำหรับการ tinkering กับอารมณ์ของผู้คน เป็นส่วนหนึ่งของการวิจัยทางจิตวิทยาเพื่อตรวจสอบวิธีการที่อารมณ์สามารถกระจายในสื่อสังคมการเอาใจใส่ใน Facebook ได้ ไม่ใช่เรื่องง่าย นักวิจัยได้เรียนรู้ว่าตัวอักษรไม่กี่สามารถมีผลกระทบลึกซึ้ง ตัวอย่างเช่น ในรูปแรกของเครื่องมือเหล่านี้ , Facebook ให้ผู้ใช้รายชื่อของอารมณ์ - คลุมเครือเช่น " น่าอาย " เพื่อสื่อสารถึงพวกเขาต้องการโพสต์ลบออก ในเวลา 50 เปอร์เซ็นต์ของผู้ใช้ที่ต้องการจะลบโพสต์ที่ต้องใช้เครื่องมือ แต่เมื่อ Facebook เพิ่มคำว่า " มัน " เพื่อสร้างประโยคที่สมบูรณ์ ( " น่าอาย " ) ปฏิสัมพันธ์ยิงถึง 78 เปอร์เซ็นต์วัยรุ่นจะโฟกัสเฉพาะไม่เพียง แต่เป็นเหยื่อของ cyberbullying แต่เพราะบางครั้ง ขาดวุฒิภาวะทางอารมณ์ที่จะจัดการลบโพสต์ดร. มาร์ค แบร๊คเก็ต , ผู้อำนวยการของเยลศูนย์ความฉลาดทางอารมณ์ ซึ่งทำงานกับ Facebook นี้อารมณ์โครงการที่มีการปกป้องและดูแลทีม กล่าวว่า การวิจัยพบว่า วัยรุ่นต้องการแนวทางเพิ่มเติมและตัวเลือกเสียงและความรู้สึกของพวกเขาบน Facebook ที่วัยรุ่นจะนำเสนอตัวเลือกมากขึ้นกว่าเพียงแค่ " น่าอาย " เมื่อต้องการลบโพสต์ พวกเขาจะถามว่าเกิดอะไรขึ้นในการโพสต์ , วิธีที่พวกเขารู้สึกเกี่ยวกับมันและวิธีการที่น่าเศร้าของพวกเขา นอกจากนี้ พวกเขาจะได้รับกล่องข้อความก่อนเขียนสุภาพตอบสนองที่สามารถส่งไปให้เพื่อนที่ทำร้ายความรู้สึกของพวกเขา ( ในรุ่นแรก ๆ คุณลักษณะนี้เพียง 20 เปอร์เซ็นต์ของวัยรุ่นที่กรอกแบบฟอร์ม เมื่อ Facebook เพิ่มบรรยายภาษาเพิ่มเติมเช่น " ความรู้สึก " และ " ความเศร้า " ตัวเลขเติบโตถึง 80 เปอร์เซ็นต์ )" เราได้เล่นรอบ ๆมีประชากรและไม่มีข้อความก่อนข้อความที่ " ดร. แบร๊คเก็ต กล่าว " ถ้าเด็กจะได้รับกล่องเปล่า บ่อยครั้งที่พวกเขากำลังจะพูดในสิ่งที่ไม่เป็นประโยชน์ รวมถึง ด่าเพื่อน เมื่อ Facebook ได้รับการพัฒนามากขึ้นการตอบสนองเช่น " กระทู้นี้หมายถึง มันทำให้ผมรู้สึกเศร้า และผมไม่ต้องการบน Facebook , " 85 เปอร์เซ็นต์ของวัยรุ่นที่อยากโพสต์ลบออก ส่งข้อความ" เมื่อลูกให้คนรู้ว่าพวกเขาได้ทำร้ายความรู้สึกของพวกเขาในทางส่วนบุคคล มีความเป็นไปได้ที่แข็งแกร่งที่เด็กอื่น ๆ จะเอาลง " ดร. แบร๊คเก็ต กล่าวน่าสนใจ เพิ่มเติมมักจะมากกว่าไม่ โพสต์ไม่ได้ถูกทำร้าย แต่มุขหลงทางดิจิตอล เมื่อ Facebook ถามคน ทำไมพวกเขาใช้ร่วมกันโพสต์ที่ทำร้ายคนอื่น ประมาณ 90 เปอร์เซ็นต์ของผู้ตอบแบบสอบถามกล่าวว่าพวกเขาคิดว่าเพื่อนของพวกเขา
การแปล กรุณารอสักครู่..
