Mostrar registro simples

dc.contributor.advisorGonçalves, Vanessa Chiaript_BR
dc.contributor.authorBassotto, Vinicius de Fragapt_BR
dc.date.accessioned2024-07-17T05:37:22Zpt_BR
dc.date.issued2023pt_BR
dc.identifier.urihttp://hdl.handle.net/10183/276416pt_BR
dc.description.abstractO desenvolvimento de sistemas de inteligência artificial, em paralelo aos benefícios, tem propiciado o surgimento de uma grande variedade de riscos e de “efeitos colaterais negativos”. Nesse cenário, está a possibilidade de sua utilização como instrumento ou como agente independente para divulgar fake news e praticar discurso de ódio, fenômenos intrínsecos ao mundo polarizado e belicoso da era da internet e das redes sociais. Considerando a crescente automação e independência das tecnologias de inteligência artificial, passou-se ao questionamento quanto à possibilidade de os sistemas de inteligência artificial, notadamente, de inteligência artificial generativa, serem penalmente responsabilizados pela divulgação de fake news e pela prática de discurso de ódio. Inserido nesse contexto, o primeiro capítulo deste trabalho buscou analisar a problemática extrapenal ao serem tratadas as características, possibilidades de uso, benefícios, riscos e iniciativas de regulamentação dos sistemas de inteligência artificial, bem como verificou no que consiste o ChatGPT e os seus principais riscos. Em segundo lugar, ao se aproximar da problemática penal, procedeu-se à análise do tratamento conferido pelo direito penal brasileiro às fake news, no que consistem os crimes de ódio e de que forma os sistemas de inteligência artificial podem realizá-los. Por fim, sistematizamos as hipóteses de responsabilização penal em três modelos associados à maior ou à menor independência que possuem as tecnologias de inteligência artificial frente ao programador ou ao usuário. O primeiro modelo considera que um sujeito pode desenvolver ou utilizar das aptidões do sistema de inteligência artificial para, como instrumento, proferir discurso de ódio ou divulgar fake news, de modo que, nesta hipótese, responderia penalmente o próprio agente. O segundo modelo cogita a responsabilização a título de culpa, por negligência, na hipótese de o programador ou o desenvolvedor terem previsto, porém não terem impedido, a prática de ofensas de tais natureza. O terceiro modelo, concernente aos sistemas de inteligência artificial generativa, prevê a produção do resultado típico sem dependência com o programador ou o usuário, o que consiste no ponto sensível e nebuloso da matéria. Nessa hipótese, analisamos as noções de conduta, relação de causalidade e responsabilidade da pessoa jurídica. Ao final, o problema de pesquisa foi respondido em sentido contrário à possibilidade de responsabilização penal nos três casos: (I) do próprio sistema de inteligência artificial generativa, tendo em vista que não se trata de conduta à luz do direito penal; (II) do programador ou do usuário, considerando a inexistência de relação de causalidade entre conduta e resultado; e (III) da empresa desenvolvedora, haja vista a impossibilidade de responsabilização penal da pessoa jurídica nas hipóteses. Assim, abordamos alternativas à responsabilização penal, especialmente dentro dos campos da responsabilidade civil e administrativa, por ilícitos cometidos pelas tecnologias.pt_BR
dc.description.abstractThe development of artificial intelligence entities, alongside with the benefits, has led to the emergence of risks and “negative side effects”. In this scenario, there is the possibility of using it as an instrument or as an independent agent to spread fake news and engage in hate speech, phenomena related to the polarized and bellicose world of the internet and social media era. Considering the increasing automation and independence of artificial intelligence technologies, questions have arisen regarding the possibility of artificial intelligence entities, notably generative artificial intelligence, being held criminally responsible for fake news dissemination and the practice of hate speech. Embedded in this context, the first chapter of this work sought to analyze the non-penal issue by addressing the characteristics, possibilities of use, benefits, risks, and regulatory initiatives of artificial intelligence entities, as well as examining what ChatGPT consists of and its main dangers. Secondly, when approaching the criminal problem, we analyzed the treatment given by Brazilian criminal law to fake news, searching for the definition of hate crimes and how artificial intelligence entities can carry them out. Finally, we systematize the hypotheses of criminal liability into three models associated with the greater or lesser independence of artificial intelligence technologies from the programmer or the user. The first model considers that a subject can develop or use the skills of the artificial intelligence entity to, as an instrument, utter hate speech or spread fake news, so in this hypothesis, the agent itself would be criminally liable. The second model considers liability for negligence if the programmer or developer had foreseen, but not prevented, the commission of offenses of such nature. The third model, concerning generative artificial intelligence entities, predicts the production of the typical result without dependence on the programmer or the user, which is the sensitive and nebulous point of the matter. In this hypothesis, we analyze the notions of conduct, causal link, and responsibility of the legal entity. In the end, the research problem was answered in the opposite direction to the possibility of criminal liability in the three cases: (I) the generative artificial intelligence entity itself, considering that it is not a question of conduct in the light of criminal law; (II) of the programmer or user, considering the non-existence of a causal relationship between conduct and result; and (III) the developer company, given the impossibility of holding the legal entity criminally liable in these cases. Thus, we will address alternatives to criminal liability for offenses committed by technologies, especially within the fields of civil liability and administrative law.en
dc.format.mimetypeapplication/pdfpt_BR
dc.language.isoporpt_BR
dc.rightsOpen Accessen
dc.subjectInteligência artificialpt_BR
dc.subjectArtifical inteligenceen
dc.subjectFake newspt_BR
dc.subjectFake newsen
dc.subjectCrimes de ódiopt_BR
dc.subjectHate crimesen
dc.subjectResponsabilidade penalpt_BR
dc.subjectCriminal liabilityen
dc.titleResponsabilização penal pela divulgação de fake news e por crimes de ódio praticados por sistemas de inteligência artificial generativapt_BR
dc.typeTrabalho de conclusão de graduaçãopt_BR
dc.identifier.nrb001206599pt_BR
dc.degree.grantorUniversidade Federal do Rio Grande do Sulpt_BR
dc.degree.departmentFaculdade de Direitopt_BR
dc.degree.localPorto Alegre, BR-RSpt_BR
dc.degree.date2023pt_BR
dc.degree.graduationCiências Jurídicas e Sociaispt_BR
dc.degree.levelgraduaçãopt_BR


Thumbnail
   

Este item está licenciado na Creative Commons License

Mostrar registro simples