피우뮤직 &피아노
Slider
전문강사 양성 프로그램 전문강사 자격과정 신청  
> 전문강사 양성 > 전문강사 자격과정 신청
전문강사 자격과정 신청
 
Extra Form
개인정보 취급방침 jan_hely@yahoo.com
연락처 28|@|2718|@|19081

As concern grows over social media, U.S.

lawsuits stack up

*

Surge in mental health problems worst among girls

*

Lawyers zone in on algorithm designs, EVDEn eVE NAKliYat whistleblower leaks

*

Others see platforms as scapegoat for society's woes

By Avi Asher-Schapiro

LOS ANGELES, Feb 8 (Thomson Reuters Foundation) - At about the time her daughter reached the age of 12, American health executive Laurie saw her once confident, happy child turning into someone she barely recognized.

At first, she thought a bad case of adolescent angst was to blame.

Initially, evDeN evE nakLiyAT her daughter had trouble sleeping and grappled with episodes of self-loathing and anxiety, but by the time she was 14, she had started cutting herself and was having suicidal thoughts.

Without Laurie knowing, she had been sneaking away her confiscated smartphone and spending hours online at night, trawling through posts about self-harm and eating disorders on social media platforms.

"One day she said to me: 'Mom, I'm going to hurt myself badly if I don't get help,'" Laurie said as she described the mental health crises that have plagued her daughter for the last two years, disrupting her education and devastating the family's finances.

She asked to use only her first name in order to protect the identity of her daughter.

Paying for her daughter's care - therapists, a psychiatrist, and multiple residential treatment facilities across the country - has nearly bankrupted Laurie, who recently sold her house in California and moved to a cheaper home in another state.

In August, she filed a lawsuit on behalf of her daughter against the social media platforms she blames for the ordeal: Instagram, Snapchat and TikTok.

The case is one of dozens of similar U.S.

lawsuits which argue that, when it comes to children, social media is a dangerous product - like a car with a faulty seat-belt - and that tech companies should be held to account and pay for the resulting harms.

"Before (she used) social media, there was no eating disorder, there was no mental illness, there was no isolation, there was no cutting, none of that," Laurie told the Thomson Reuters Foundation about her daughter, who is identified as C.W.

in the suit.

Don Grant, a psychologist who specializes in treating children with mental health issues linked to digital devices, said Laurie's predicament is increasingly common.

"It's like every night, kids all over the country sneak out of their houses and go to play in the sewers under the city with no supervision. That's what being online can be like," he said.

"You think just because your kids are sitting in your living room they're safe - but they're not."

Facebook's parent company Meta Platforms Inc, Snap Inc, which owns Snapchat, and TikTok declined to comment on individual lawsuits, but said they prioritized children's safety online.

Meta executives, under criticism over internal data showing its Instagram app damaged the mental health of teenagers, have highlighted the positive impacts of social media, and their efforts to better protect young users.

ASBESTOS, TOBACCO, SOCIAL MEDIA?

Laurie is represented by the Social Media Victims Law Center, a firm co-founded by veteran trial lawyer Matt Bergman, who won hundreds of millions of dollars suing makers of the building material asbestos for EvDen eVe nAKLiyat concealing its linkage with cancer in the 1990s and early 2000s.

Bergman decided to turn his attention to social media after former Facebook executive Frances Haugen leaked thousands of internal company documents in 2021 that showed the company had some knowledge of the potential harm its products could cause.

"These companies make the asbestos industry look like a bunch of Boy Scouts," Bergman said.

Facebook has said the Haugen papers have been mischaracterized and taken out of context, and that Wall Street Journal articles based on them "conferred egregiously false motives to Facebook's leadership and employees".

Bergman's firm has signed up more than 1,200 clients including Laurie over the past year, taking out television ads asking families who worry about their children's social media use to get in touch on a toll-free hotline.

In addition to more than 70 cases involving child suicide, the firm has collected over 600 cases linked to eating disorders.

Dozens more accuse social media firms of failing to prevent sex trafficking on their platforms, or stem from accidental deaths after children attempted viral stunts allowed to spread online.

In late 2022, 80 similar federal suits from 35 different jurisdictions were consolidated together and are now being considered by the U.S.
District Court for the Northern District of California.

Laurie's suit is part of a similar bundle of suits filed in California state courts.

HIDING BEHIND SECTION 230

None of these cases - or any of those filed by Bergman - have yet to be heard by a jury, and it is not clear if they ever will.

First, he has to get past Section 230 of the Communications Decency Act, a provision that provides technology companies some legal immunity for content published on their platform by third parties.

Courts routinely cite the provision when they dismiss lawsuits against social media firms, which prevents the cases from moving on to trial.

In October, for example, a court in Pennsylvania blocked a lawsuit against TikTok brought on behalf of a child who died after suffocating themselves doing a so-called blackout challenge that was widely shared on the video-sharing site.

When it was enacted in the 1990s, Section 230 was intended to shield the nascent tech industry from being crushed under waves of lawsuits, providing space for companies to experiment with platforms that encouraged user-generated content.

Laura Marquez-Garrett, a lawyer with the Social Media Victims Law Center who is taking the lead on Laurie's case, said she believed her cases could be won if a court agreed to hear them.

"The moment we get to litigate ... and move forward, it's game over," she said.

Bergman and Marquez-Garrett are part of growing cohort of lawyers who think Section 230 is no longer tenable, as political pressure builds on the issue.

President Joe Biden has voiced support for "revoking" Section 230, and politicians in both parties have proposed legislation that would scrap or tweak the provision. But so far, no reform packages have gained traction, shifting the focus of reform efforts to litigation.

"We aren't talking about small companies experimenting with new technology; we're talking about huge companies who have built harmful products," Bergman said.

Bergman and his team say the harm to their clients is not primarily about harmful speech that just so happened to be posted online, but that it can directly be attributed to design decisions made by the tech companies.

His lawsuits focus on the building of algorithms that maximize the amount of time children spend online and push them towards harmful content; the way friend recommendation features can introduce children to predatory adults - as well as the lax controls for parents who want to restrict access.

"These lawsuits are about specific design decisions social media platforms have made to maximize profit over safety," Bergman said.

Asked by the Thomson Reuters Foundation to comment on the company's product designs, Meta sent an emailed statement from its global head of safety, Antigone Davis, who said the company takes children's safety seriously.

"We want teens to be safe online. We've developed more than 30 tools to support teens and families, including supervision tools that let parents limit the amount of time their teens spend on Instagram, and age verification technology that helps teens have age-appropriate experiences," the statement read.

A Snap spokesperson did not comment directly on the pending litigation, adding in a statement that "nothing is more important to us than the wellbeing of our community."

"We curate content from known creators and publishers and use human moderation to review user generated content before it can reach a large audience, which greatly reduces the spread and discovery of harmful content," the statement added.

'FOR PARENTS EVERYWHERE'

Laurie's lawsuit - which was filed in late August in the Superior Court of Los Angeles - alleges that TikTok, Meta and Snap, are "contributing to the burgeoning mental health crisis perpetrated upon the children and teenagers of the United States."

"I'm doing this for parents everywhere," she said.

A sharp increase in depression and suicide among U.S.

teenagers coincided with a surge in social media use about a decade ago, though a slew of research has reached mixed conclusions about a possible link.

Bergman is not the first lawyer to try to bring a tech firm to court for building an allegedly harmful product.

Carrie Goldberg, a New York-based lawyer, helped to popularize the notion that social media software is essentially like any other consumer product - and Evden eVe naKliyAT that harms it causes in the real world should open up manufacturers to lawsuits.

In 2017, she sued the dating app Grindr on behalf of Matthew Herrick, a man who was stalked and threatened online by an ex-boyfriend, but could not get Grindr to block his harasser.

Goldberg argued that Grindr's decision to make it difficult to kick harassers off the app should open the company up to some liability as designers of the product, but the court disagreed - ruling that Grindr merely facilitated communications, and was therefore protected under Section 230.

"I couldn't get in front of a jury," Goldberg recalled, saying that if such cases were allowed to proceed to trial, they would likely succeed.

A lot has changed in the last five years, she said: the public has become less trusting of social media companies and courts have started to entertain the notion that lawyers should be able to sue tech platforms in the same way as providers of other consumer products or services.

In 2021, the 9th Circuit Court in California ruled that Snap could potentially be held liable for the deaths of two boys who died in a high-speed car accident that took place while they were using a Snapchat filter that their families say encouraged reckless driving.

In October, the U.S.

Supreme Court decided to hear a case against Google that accuses its YouTube video platform of materially supporting terrorism due to the algorithmic recommendation of videos by the Islamic State militant group.

Legal experts said that case could set an important precedent for how Section 230 applies to the content recommendations that platforms' algorithms make to users - including those made to children such as Laurie's daughter.

"The pendulum has really swung," Goldberg said.

"People no longer trust these products are operating in the public good, and the courts are waking up."

Outside the United States, the balance has shifted still further, and is beginning to be reflected both in consumer lawsuits and regulation.

In September, a British government inquest faulted social media exposure for the suicide of a 14-year-old girl, and lawmakers are poised to implement stringent rules for age verification for social media firms.

But aside from a recent bill in California that mandates "age appropriate design" decisions, efforts in the United States to pass new laws governing digital platforms have largely faltered.

Trial lawyers like Bergman say that leaves the issue in their hands.

CONSENT AND CONTROL

Laurie's daughter got her first cellphone in the sixth grade, when she started taking the bus to school alone.

When her mental health began to deteriorate soon after, her mother did not initially make a connection.

"In many ways I was a helicopter parent," Laurie said. "I did everything right - I put the phone in the cupboard at night, we spoke about the appropriate use of technology around the dinner table."

Now, Laurie knows her daughter had secretly opened multiple social media accounts in an attempt to evade her mother's vigilance, spending hours connected at night in her bedroom.

Laurie soon realized her daughter was wearing long-sleeved shirts to cover up cutting scars on her arms.

"When I asked her about it, she said, "Mom, there are videos showing you how to do it on TikTok, and Snapchat - they show you what tools to use."

TikTok and Snap said harmful content is not allowed on their platforms, and they take steps to remove it.

With her self-esteem plummeting, Laurie's daughter was introduced to older users on Snapchat and Instagram who sought to groom and sexually exploit her - including requesting sexually explicit images from her, according to her lawyers.

Although Laurie wanted to keep her daughter offline, social media platforms designed their products "to evade parental consent and control," her lawsuit alleges.

A Meta spokesperson pointed to a number of recent initiatives to give parents control over their children's online activity, including a "Family Center," introduced in 2022, which allows parents to monitor and limit time spent on Instagram.

Laurie's daughter surreptitiously opened five Instagram, six Snapchat and three TikTok accounts, according to her lawsuit, many before she turned 13 - the age when social media firms can allow minors to open accounts.

"There was no way for me to contact all these companies and say, 'don't let my daughter log in,'" Laurie said.

Though Laurie wanted to further restrict her daughter's social media access, she was concerned that - since all her classmates were communicating on the apps - her daughter would feel socially excluded without them.

ENDLESS SCROLLING

Laurie's daughter is just one data point in a trend that psychologists have been trying to make sense of over the last decade.

Between the years of 2012 and 2015, U.S. teenagers reporting symptoms of depression increased by 21% - the number was double for girls, said Jean Twenge, an American psychologist and researcher studying mental health trends.

Three times as many 12- to 14-year-old girls killed themselves in 2015 as in 2007, Twenge said.

Until about 10 years ago, cases involving depression, self-harm and anxiety had been stable for decades, said Grant, the psychologist.

"Then we see this big spike around 2012 - what happened in 2011?

The advent of Snapchat and Instagram," he said.

One driver of this trend, researchers say, is social comparison - the way that products including Instagram and TikTok are engineered to push users to constantly compare themselves to their peers in a way that can torpedo self-esteem.

"She'd say "Mom, I'm ugly, I'm fat"," Laurie recalled of her daughter. "Keep in mind: she's 98 pounds (44 kg), and 5 foot 5 (165 cm)."

"So I'd ask her, 'why do you think this?' And she'd say, 'because I posted a photo and only four people liked it'."

Grant said he sees children hooked by very specific design choices that social media companies have made.

"Just think about endless scrolling - that's based on the motion of slot machines - addictive gambling," said Grant, who spent years treating adult addiction before turning his focus to children's technology use.

Still, mental health experts are divided on the interplay between children's mental health and social media use.

"Social media is often a scapegoat," said Yalda Uhls, a professor of developmental psychology at the University of California at Los Angeles (UCLA).

"It's easier to blame (it) than the systematic issues in our society - there's inequality, racism, climate change, and there's parenting decisions too."

While some children may attribute a mental health challenge to social media, others say the opposite. Polling by Pew in November showed that less than 10% of teens said social media was having a "mostly negative" impact on their lives.

There are still big gaps in research into concepts such as social media addiction and digital harm to children, said Jennifer King, a research fellow at the Stanford University Institute for Human-Centered Artificial Intelligence.

"But the internal research - the Frances Haugen documents - are damning," she said. "And of course, it was shark bait for trial lawyers. If you have any concerns concerning in which and how to use EVdeN EvE naKliyAT, you can call us at our own web site. "

INHERENTLY DANGEROUS?

Toney Roberts was watching CNN at 2 a.m. on a winter's evening in early 2022, when he saw an advertisement he never expected to see.

A woman on screen invited parents to call a 1-800 number if they had a "child (who) suffered a mental health crisis, eating disorder, attempted or completed suicide or was sexually exploited through social media."

"I thought, wait, this is what happened to our daughter," he recalled.

It had been more than a year since he found his 14-year-old daughter Englyn hanging in her room. She eventually died from her injuries.

Roberts later discovered that his daughter had viewed a video depicting the specific suicide method on Instagram, and that in the months leading up to her death she had been sucked into an online world of self-harm content, and abuse.

He began to comb through his daughter's phone, creating a dossier of her mental health spiral, which he attributed to her use of Instagram, TikTok and Snapchat.

To his distress, he found the video that may have played a part in her death was still circulating on Instagram for months after she died.

Meta declined to comment on the Roberts case, but said in an emailed statement that the company does not "allow content that promotes suicide, self-harm or eating disorders."

After Roberts called the 1-800 number, Bergman and Marquez-Garrett flew to Louisiana to meet the family, and last July, he and his wife Brandy sued the three social media companies.

"I didn't want my daughter to be a statistic," Roberts said, adding that the user who created the video he thinks inspired his daughter's suicide still has an active Instagram account.

TikTok and Snapchat also declined to comment on the case.

Bergman often compares his cases against social media platforms to the avalanche of lawsuits that targeted tobacco companies in the 1950s onwards: lawyers only began winning cases after leaked documents showed advance knowledge of cancer-causing chemicals.

In Laurie's case, for example, the lawsuit cites documents made public by Haugen showing an internal Facebook conversation about how 70% of the reported "adult/minor exploitation" on the platform could be traced back to recommendations made through the "People You May Know" feature.

Another employee suggests in the same message board that the tool should be disabled for children.

Meta did not directly respond to a request for comment on the document.

Since the so-called Facebook Papers were first published in September 2021, Meta has made a number of changes, including restricting the ability of children to message adults who Instagram flags as "suspicious."

But at the time Laurie's daughter was using social media, none of the platforms had meaningful restrictions on the ability of adults to message children, her lawyers say, a design choice they argue should open the companies up to legal liability.

Bergman said facts like this illustrate social media litigation should become the next "Big Tobacco."

Some other lawyers are not convinced by the parallel, however.

"For every person that gets harmed or hurt in real ways, I suspect there are literally millions who have no problems at all, and are having a great time on the platform," said Jason Schultz, director of New York University's Tech Law and Policy Clinic.

"Courts are going to have to ask: is this really an inherently dangerous thing?"

DESIGN DECISIONS

King, for her part, agrees that design choices made by the platforms are problematic.

"There's growing evidence that the companies made design decisions that were so skewed toward promoting engagement, that they can lead users to very harmful places," she said.

John Villasenor, the co-director of the UCLA Institute for Technology, Law, and Policy, said it could be hard to distinguish between a well-designed algorithm and one that might under some circumstances promote addictive behaviors.

"It's not unreasonable for platforms to build digital products that encourage more engagement," he said.

"And if someone is prone to addiction, and can't stop using it - is that always the platform's fault?"

In late 2022, Laurie's daughter returned home after spending a chunk of her high school years in residential treatment centers.

Each week, she sits down with her mother so they can go through everything she has posted on Instagram - the only social media platform Laurie decided to let her keep using, so she could still connect with her friends.

Today, she is doing much better, Laurie said.

"I feel like I have my daughter back."

Originally published at: website (Reporting by Avi Asher-Schapiro @AASchapiro; Editing by Helen Popper. The Thomson Reuters Foundation is the charitable arm of Thomson Reuters. Visit website


 
피우뮤직브랜드 소개    │     피우펀뮤직    │     피우펀피아노    │     전문강사 양성    │     프랜차이즈    │     커뮤니티    │     이용약관    │     개인정보 취급방침

개인정보취급방침

피우뮤직(이하 '회사’라 함)은(는) 개인정보보호법에 따라 이용자의 개인정보 보호 및 권익을 보호하고 개인정보와 관련한 이용자의 고충을 원활하게 처리할 수 있도록 다음과 같은 처리방침을 두고 있습니다. 회사는 개인정보처리방침을 개정하는 경우 웹사이트 공지사항(또는 개별공지)을 통하여 공지할 것입니다. 본 방침은 2019년 6월 1일부터 시행됩니다.

1. 개인정보의 수집 및 이용 목적
① 회사는 개인정보를 다음의 목적을 위해 처리합니다. 처리한 개인정보는 다음의 목적 이외의 용도로는 사용되지 않으며 이용 목적이 변경될 경우에는 개인정보 보호법 제18조에 따라 별도의 동의를 받는 등 필요한 조치를 이행할 예정입니다.
가. 고객상담 : 가맹 관련 문의 확인 및 답변을 위한 연락통지, 처리결과 통보 등을 목적으로 개인정보를 처리합니다.
나. 정보제공 : 회사에서 주최하는 프로그램에 대한 정보 제공 등의 목적으로 개인정보를 처리합니다.
② 회사는 다음과 같은 방법으로 개인정보를 수집합니다.
- 홈페이지

2. 처리하는 개인정보 항목
① 회사는 다음의 개인정보 항목을 처리하고 있습니다.
가. 고객상담
- 필수항목 : 이름, 연락처 (접속 IP 정보, 쿠키, 서비스 이용 기록, 접속 로그)
- 선택항목 : 없음
나. 정보제공
- 필수항목 : 이름, 연락처 (접속 IP 정보, 쿠키, 서비스 이용 기록, 접속 로그)
- 선택항목 : 없음

3. 개인정보의 처리 및 보유 기간
① 회사는 법령에 따른 개인정보 보유.이용기간 또는 정보주체로부터 개인정보를 수집 시에 동의 받은 개인정보 보유, 이용기간 내에서 개인정보를 처리, 보유합니다.
② 구체적인 개인정보 처리 및 보유 기간은 다음과 같습니다.
가. 고객상담 : 가맹관련 문의 확인 및 답변을 위한 연락통지, 처리결과 통보 등을 목적으로 개인정보를 처리합니다.
나. 정보제공 : 회사에서 주최하는 프로그램에 대한 정보 제공 등의 목적으로 개인정보를 처리합니다.
다. 개인정보 보유기간 : 5년

4. 개인정보의 파기
① 회사는 원칙적으로 개인정보 처리목적이 달성된 경우에는 보유기간을 거친 후 지체 없이 해당 개인정보를 파기합니다. 파기의 절차, 기한 및 방법은 다음과 같습니다.
- 파기절차 : 이용자가 입력한 정보는 목적 달성 후 별도의 DB에 옮겨져(종이의 경우 별도의 서류) 내부 방침 및 기타 관련 법령에 따라 일정기간 저장된 후 혹은 즉시 파기됩니다. 이 때, DB로 옮겨진 개인정보는 법률에 의한 경우가 아니고서는 다른 목적으로 이용되지 않습니다.
- 파기기한 : 이용자의 개인정보는 개인정보의 보유기간이 경과된 경우에는 보유기간의 종료일로부터 5일 이내에, 개인정보의 처리 목적 달성, 해당 서비스의 폐지, 사업의 종료 등 그 개인정보가 불필요하게 되었을 때에는 개인정보의 처리가 불필요한 것으로 인정되는 날로부터 5일 이내에 그 개인정보를 파기합니다.
- 파기방법 : 전자적 파일 형태의 정보는 기록을 재생할 수 없는 기술적 방법을 사용합니다. 종이에 출력된 개인정보는 분쇄기로 분쇄하거나 소각을 통하여 파기합니다.

5. 개인정보의 제3자 제공에 관한 사항
① 회사는 원칙적으로 이용자의 개인정보를 1. 개인정보의 수집 및 이용 목적에서 명시한 범위 내에서 처리하며, 이용자의 사전 동의 없이는 본래의 범위를 초과하여 처리하거나 제3자에게 제공하지 않습니다.
단, 다음의 경우에는 개인정보를 처리할 수 있습니다.
- 이용자가 사전에 제3자 제공 및 공개에 동의한 경우
- 법령 등에 의해 제공이 요구되는 경우
- 서비스의 제공에 관한 계약의 이행을 위하여 필요한 개인정보로서 경제적/기술적인 사유로 통상의 동의를 받는 것이 현저히 곤란한 경우
- 개인을 식별하기에 특정할 수 없는 상태로 가공하여 이용하는 경우
② 개인정보를 제3자에게 제공하게 될 시 개인정보 취급방침을 통하여 반드시 제공받는 자, 이용목적, 제공하는 개인정보 항목, 보유 및 이용기간 등에 대한 내용을 고지합니다.
③ 단, 이용자가 제3자 제공 및 공개에 동의하지 않은 경우 회사에서 제공하는 서비스의 제한 혹은 정보 습득에 있어 불이익을 얻을 수 있습니다.

6. 개인정보 처리의 위탁
① 회사는 개인정보를 위탁하지 않으며, 개인정보를 위탁하게 될 시 최소 15일 전에 별도로 공지사항을 통해 공지한 뒤 개인정보 취급방침을 개정합니다.

7. 정보주체의 권리, 의무 및 행사방법
① 정보주체는 회사에 대해 언제든지 다음 각 호의 개인정보 보호 관련 권리를 행사할 수 있습니다.
가. 개인정보 열람요구
나. 오류 등이 있을 경우 정정 요구
다. 삭제요구
라. 처리정지 요구
② 제1항에 따른 권리 행사는 회사에 대해 개인정보 보호법 시행규칙 별지 제8호 서식에 따라 서면, 전자우편, FAX 등을 통하여 하실 수 있으며 회사는 이에 대해 지체 없이 조치하겠습니다.
③ 정보주체가 개인정보의 오류 등에 대한 정정 또는 삭제를 요구한 경우 회사는 정정 또는 삭제를 완료할 때까지 당해 개인정보를 이용하거나 제공하지 않습니다.
④ 제1항에 따른 권리 행사는 정보주체의 법정대리인이나 위임을 받은 자 등 대리인을 통하여 하실 수 있습니다. 이 경우 개인정보 보호법 시행규칙 별지 제11호 서식에 따른 위임장을 제출하셔야 합니다.

8. 개인정보 수집 장치의 설치, 운영 및 거부에 관한 사항
① 회사는 고객님의 정보를 수시로 저장하고 찾아내는 '쿠키(cookie)' 등을 운용합니다.
가. 쿠키란?
- 회사는 개인화되고 맞춤화된 서비스를 제공하기 위해서 이용자의 정보를 저장하고 수시로 불러오는 '쿠키(cookie)'를 사용합니다.
- 쿠키는 웹사이트를 운영하는데 이용되는 서버가 이용자의 브라우저에게 보내는 아주 작은 텍스트 파일로 이용자 컴퓨터의 하드디스크에 저장됩니다. 이후 이용자가 웹 사이트에 방문할 경우 웹 사이트 서버는 이용자의 하드 디스크에 저장되어 있는 쿠키의 내용을 읽어 이용자의 환경설정을 유지하고 맞춤화된 서비스를 제공하기 위해 이용됩니다.
- 쿠키는 개인을 식별하는 정보를 자동적/능동적으로 수집하지 않으며, 이용자는 언제든지 이러한 쿠키의 저장을 거부하거나 삭제할 수 있습니다.
나. 회사의 쿠키 사용 목적
- 이용자들이 방문한 회사의 각 서비스와 웹 사이트들에 대한 방문 및 이용형태, 인기 검색어, 보안접속 여부, 이용자 규모 등을 파악하여 이용자에게 광고를 포함한 최적화된 맞춤형 정보를 제공하기 위해 사용합니다.
다. 쿠키의 설치/운영 및 거부
- 이용자는 쿠키 설치에 대한 선택권을 가지고 있습니다. 따라서 이용자는 웹브라우저에서 옵션을 설정함으로써 모든 쿠키를 허용하거나, 쿠키가 저장될 때마다 확인을 거치거나, 아니면 모든 쿠키의 저장을 거부할 수도 있습니다.
- 다만, 쿠키의 저장을 거부할 경우에는 일부 서비스는 이용에 어려움이 있을 수 있습니다.
- 쿠키 설치 허용 여부를 지정하는 방법 (Internet Explorer의 경우)은 다음과 같습니다.
(1) [도구] 메뉴에서 [인터넷 옵션]을 선택합니다.
(2) [개인정보 탭]을 클릭합니다.
(3) [개인정보취급 수준]을 설정하시면 됩니다.

9. 개인정보관리책임자
① 회사는 개인정보 처리에 관한 업무를 총괄해서 책임지고, 개인정보 처리와 관련한 정보주체의 불만처리 및 피해구제 등을 위하여 아래와 같이 개인정보 보호책임자를 지정하고 있습니다.
▶ 개인정보 보호 책임자
- 부서명: 전략기획본부
- 담당자: 정혜선
- 연락처: 1661-2106
② 정보주체는 회사의 서비스를 이용하시면서 발생한 모든 개인정보 보호 관련 문의, 불만처리, 피해구제 등에 관한 사항을 개인정보 보호책임자 및 담당부서로 문의하실 수 있습니다. 회사는 정보주체의 문의에 대해 지체 없이 답변 및 처리해드릴 것입니다.

이용약관

제1장 총 칙
 

제1조(목적)
이 약관은 당사 홈페이지에서 제공하는 모든 서비스(이하 "서비스"라 한다)의 이용조건 및 절차에 관한 사항을 규정함을 목적으로 합니다.
 

제2조(정의)
이 약관에서 사용하는 용어의 정의는 다음 각 호와 같습니다.
1. 이용자 : 본 약관에 따라 회사가 제공하는 서비스를 받는 자
2. 이용계약 : 서비스 이용과 관련하여 회사와 이용자간에 체결하는 계약
3. 가입 : 회사가 제공하는 신청서 양식에 해당 정보를 기입하고, 본 약관에 동의하여 서비스 이용계약을 완료시키는 행위
4. 회원 : 당 사이트에 회원가입에 필요한 개인정보를 제공하여 회원 등록을 한 자
5. 이용자번호(ID) : 회원 식별과 회원의 서비스 이용을 위하여 이용자가 선정하고 회사가 승인하는 영문자와 숫자의 조합(하나의 주민등록번호에 하나의 ID만 발급 가능함)
6. 패스워드(PASSWORD) : 회원의 정보 보호를 위해 이용자 자신이 설정한 영문자와 숫자, 특수문자의 조합
7. 이용해지 : 회사 또는 회원이 서비스 이용이후 그 이용계약을 종료시키는 의사표시


제3조(약관의 효력과 변경)
회원은 변경된 약관에 동의하지 않을 경우 회원 탈퇴(해지)를 요청할 수 있으며, 변경된 약관의 효력 발생일로부터 7일 이후에도 거부의사를 표시하지 아니하고 서비스를 계속 사용할 경우 약관의 변경 사항에 동의한 것으로 간주됩니다.
① 이 약관의 서비스 화면에 게시하거나 공지사항 게시판 또는 기타의 방법으로 공지함으로써 효력이 발생됩니다.
② 회사는 필요하다고 인정되는 경우 이 약관의 내용을 변경할 수 있으며, 변경된 약관은 서비스 화면에 공지하며, 공지후 7일 이후에도 거부의사를 표시하지 아니하고 서비스를 계속 사용할 경우 약관의 변경 사항에 동의한 것으로 간주됩니다.
③ 이용자가 변경된 약관에 동의하지 않는 경우 서비스 이용을 중단하고 본인의 회원등록을 취소할 수 있으며, 계속 사용하시는 경우에는 약관 변경에 동의한 것으로 간주되며 변경된 약관은 전항과 같은 방법으로효력이 발생합니다.
 

제4조(준용규정)
이 약관에 명시되지 않은 사항은 전기통신기본법, 전기통신사업법 및 기타 관련법령의 규정에 따릅니다.


제2장 서비스 이용계약


제5조(이용계약의 성립)
이용계약은 이용자의 이용신청에 대한 회사의 승낙과 이용자의 약관 내용에 대한 동의로 성립됩니다.


제6조(이용신청)
이용신청은 서비스의 회원정보 화면에서 이용자가 회사에서 요구하는 가입신청서 양식에 개인의 신상정보를 기록하여 신청할 수 있습니다.


제7조(이용신청의 승낙)
① 회원이 신청서의 모든 사항을 정확히 기재하여 이용신청을 하였을 경우에 특별한 사정이 없는 한 서비스이용신청을 승낙합니다.
② 다음 각 호에 해당하는 경우에는 이용 승낙을 하지 않을 수 있습니다.
1. 본인의 실명으로 신청하지 않았을 때
2. 타인의 명의를 사용하여 신청하였을 때
3. 이용신청의 내용을 허위로 기재한 경우
4. 사회의 안녕 질서 또는 미풍양속을 저해할 목적으로 신청하였을 때
5. 기타 회사가 정한 이용신청 요건에 미비 되었을 때


제8조(계약사항의 변경)
회원은 이용신청시 기재한 사항이 변경되었을 경우에는 수정하여야 하며, 수정하지 아니하여 발생하는 문제의 책임은 회원에게 있습니다.


제3장 계약당사자의 의무


제9조(회사의 의무)
회사는 서비스 제공과 관련해서 알고 있는 회원의 신상 정보를 본인의 승낙 없이 제3자에게 누설하거나 배포하지 않습니다. 단, 전기통신기본법 등 법률의 규정에 의해 국가기관의 요구가 있는 경우, 범죄에 대한 수사상의 목적이 있거나 또는 기타 관계법령에서 정한 절차에 의한 요청이 있을 경우에는 그러하지 아니합니다.


제10조(회원의 의무)
① 회원은 서비스를 이용할 때 다음 각 호의 행위를 하지 않아야 합니다.
1. 다른 회원의 ID를 부정하게 사용하는 행위
2. 서비스에서 얻은 정보를 복제, 출판 또는 제3자에게 제공하는 행위
3. 회사의 저작권, 제3자의 저작권 등 기타 권리를 침해하는 행위
4. 공공질서 및 미풍양속에 위반되는 내용을 유포하는 행위
5. 범죄와 결부된다고 객관적으로 판단되는 행위
6. 기타 관계법령에 위반되는 행위
② 회원은 서비스를 이용하여 영업활동을 할 수 없으며, 영업활동에 이용하여 발생한 결과에 대하여 회사는책임을 지지 않습니다.
③ 회원은 서비스의 이용권한, 기타 이용계약상 지위를 타인에게 양도하거나 증여할 수 없으며, 이를 담보로도 제공할 수 없습니다.


제4장 서비스 이용


제11조(회원의 의무)
① 회원은 필요에 따라 자신의 메일, 게시판, 등록자료 등 유지보수에 대한 관리책임을 갖습니다.
② 회원은 회사에서 제공하는 자료를 임의로 삭제, 변경할 수 없습니다.
③ 회원은 회사의 홈페이지에 공공질서 및 미풍양속에 위반되는 내용물이나 제3자의 저작권 등 기타권리를침해하는 내용물을 등록하는 행위를 하지 않아야 합니다. 만약 이와 같은 내용물을 게재하였을 때 발생하는결과에 대한 모든 책임은 회원에게 있습니다.


제12조(게시물 관리 및 삭제)
효율적인 서비스 운영을 위하여 회원의 메모리 공간, 메시지크기, 보관일수 등을 제한할 수 있으며 등록하는 내용이 다음 각 호에 해당하는 경우에는 사전 통지없이 삭제할 수 있습니다.
1. 다른 회원 또는 제3자를 비방하거나 중상모략으로 명예를 손상시키는 내용인 경우
2. 공공질서 및 미풍양속에 위반되는 내용인 경우
3. 범죄적 행위에 결부된다고 인정되는 내용인 경우
4. 회사의 저작권, 제3자의 저작권 등 기타 권리를 침해하는 내용인 경우
5. 회원이 회사의 홈페이지와 게시판에 음란물을 게재하거나 음란 사이트를 링크하는 경우
6. 기타 관계법령에 위반된다고 판단되는 경우


제13조(게시물의 저작권)
게시물의 저작권은 게시자 본인에게 있으며 회원은 서비스를 이용하여 얻은 정보를 가공, 판매하는 행위 등서비스에 게재된 자료를 상업적으로 사용할 수 없습니다.


제14조(서비스 이용시간)
서비스의 이용은 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴 1일 24시간을 원칙으로 합니다. 다만정기 점검 등의 사유 발생시는 그러하지 않습니다.


제15조(서비스 이용 책임)
서비스를 이용하여 해킹, 음란사이트 링크, 상용S/W 불법배포 등의 행위를 하여서는 아니되며, 이를 위반으로 인해 발생한 영업활동의 결과 및 손실, 관계기관에 의한 법적 조치 등에 관하여는 회사는 책임을 지지않습니다.


제16조(서비스 제공의 중지)

다음 각 호에 해당하는 경우에는 서비스 제공을 중지할 수 있습니다.
1. 서비스용 설비의 보수 등 공사로 인한 부득이한 경우
2. 전기통신사업법에 규정된 기간통신사업자가 전기통신 서비스를 중지했을 경우
3. 시스템 점검이 필요한 경우
4. 기타 불가항력적 사유가 있는 경우


제5장 계약해지 및 이용제한


제17조(계약해지 및 이용제한)
① 회원이 이용계약을 해지하고자 하는 때에는 회원 본인이 인터넷을 통하여 해지신청을 하여야 하며, 회사에서는 본인 여부를 확인 후 조치합니다.
② 회사는 회원이 다음 각 호에 해당하는 행위를 하였을 경우 해지조치 30일전까지 그 뜻을 이용고객에게통지하여 의견진술할 기회를 주어야 합니다.
1. 타인의 이용자ID 및 패스워드를 도용한 경우
2. 서비스 운영을 고의로 방해한 경우
3. 허위로 가입 신청을 한 경우
4. 같은 사용자가 다른 ID로 이중 등록을 한 경우
5. 공공질서 및 미풍양속에 저해되는 내용을 유포시킨 경우
6. 타인의 명예를 손상시키거나 불이익을 주는 행위를 한 경우
7. 서비스의 안정적 운영을 방해할 목적으로 다량의 정보를 전송하거나 광고성 정보를 전송하는 경우
8. 정보통신설비의 오작동이나 정보 등의 파괴를 유발시키는 컴퓨터바이러스 프로그램 등을 유포하는 경우
9. 회사 또는 다른 회원이나 제3자의 지적재산권을 침해하는 경우
10. 타인의 개인정보, 이용자ID 및 패스워드를 부정하게 사용하는 경우
11. 회원이 자신의 홈페이지나 게시판 등에 음란물을 게재하거나 음란 사이트를 링크하는 경우
12. 기타 관련법령에 위반된다고 판단되는 경우


제6장 기 타


제18조(양도금지)
회원은 서비스의 이용권한, 기타 이용계약상의 지위를 타인에게 양도, 증여할 수 없으며, 이를 담보로 제공할 수 없습니다.


제19조(손해배상)
회사는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 동 손해가 회사의 고의또는 중대한 과실로 인한 손해를 제외하고 이에 대하여 책임을 부담하지 아니합니다.


제20조(면책 조항)
① 회사는 천재지변, 전쟁 또는 기타 이에 준하는 불가항력으로 인하여 서비스를 제공할 수 없는 경우에는서비스 제공에 관한 책임이 면제됩니다.
② 회사는 서비스용 설비의 보수, 교체, 정기점검, 공사 등 부득이한 사유로 발생한 손해에 대한 책임이 면제됩니다.
③ 회사는 회원의 귀책사유로 인한 서비스이용의 장애에 대하여 책임을 지지 않습니다.
④ 회사는 회원이 서비스를 이용하여 기대하는 이익이나 서비스를 통하여 얻는 자료로 인한 손해에 관하여책임을 지지 않습니다.
⑤ 회사는 회원이 서비스에 게재한 정보, 자료, 사실의 신뢰도, 정확성 등의 내용에 관하여는 책임을 지지않습니다.


제21조(관할법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기 될 경우 회사의 소재지를 관할하는 법원을 전속 관할법원으로 합니다.

부 칙
(시행일) 이 약관은 2019년 6월 1일부터 시행합니다.