“Mita” discute com “Google” e “Oben ai” usam seus modelos para inteligência artificial em suas aplicações

“Oben Ai” aperta seus controles depois que um adolescente cometeu suicídio após uma conversa com “Chat BT”
A discussão sempre foi sobre inteligência artificial no contexto de inovação, oportunidades e grandes transformações, mas os eventos recentes destacaram seus riscos quando são usados sem controles suficientes. Os relatórios internacionais deste mês revelaram a morte de um adolescente de 16 anos depois que ele falou com o programa “Chat GBT” sobre suas idéias para se machucar, que levantou questões profundas sobre a influência dessa tecnologia.
Os pais do adolescente entraram com uma ação no Estado dos EUA da Califórnia, acusando a empresa “Oben II” de causar a morte de seu filho, enfatizando que o programa “Chat BT” da empresa o incentivou a cometer suicídio.
Em uma etapa rápida, a Oben AI anunciou o lançamento de uma série de ferramentas de controle dos pais e novas medidas de segurança, enfatizando que essas decisões não são apenas uma resposta a um incidente específico, mas parte de um compromisso mais amplo de proteger os usuários, especialmente crianças e adolescentes.
Controles dos pais para proteger os grupos menores
A empresa confirmou que as ferramentas de supervisão familiar estarão em breve no “GBT Chat”, permitindo que os pais determinem os limites de uso, bloqueie tópicos sensíveis e acompanhe a atividade das contas. O objetivo, de acordo com a empresa, é construir maior confiança em um ambiente em que as ferramentas de inteligência artificial se tornaram parte de escolas, residências e mídias sociais, enquanto os jovens correm para usá -los extensivamente.
“Nossa responsabilidade é garantir que a inteligência artificial sirva de maneira positiva das pessoas, especialmente os grupos mais vulneráveis”.
De uma tragédia individual para uma transformação institucional
Embora a morte do adolescente permaneça rara, foi um choque que levou governos e órgãos organizacionais na Europa, Ásia e Oriente Médio a exigir mais controles impressionantes sobre a interação da inteligência artificial com menores. O rápido movimento «oben ai» reflete sua consciência do volume de riscos e reputação morais relacionados ao assunto e indica que a empresa não pode adiar o bloco dessas lacunas.
Os especialistas acreditam que esse momento pode representar um ponto de virada no caminho da indústria. Um dos pesquisadores disse: “Não é mais suficiente para as empresas de inteligência artificial pagarem a inovação adiante; ela também deve pensar em consequências não intencionais, especialmente quando se trata de crianças”.
Múltiplas camadas de segurança
In addition to the patriarchal controls, “Oben AI” explained that its system depends on a multi -level defensive structure that begins to train models to reject harmful requests related to violence or self -harm and hate speech, passing through automatic systems that monitor conversations and make alerts when dangerous indicators appear, to a human review of critical cases when needed, while strengthening this with partnerships with assistance lines and organizations other than Government to provide immediate support resources such as Números de prevenção de suicídio. A Companhia afirma que esses procedimentos não são apenas planos, mas aplicados no sistema e atualmente expandidos com base nas lições aprendidas com acidentes recentes.
Nesse contexto, Sam Altman, CEO da “Oben AI”, admitiu que alguns usuários, especialmente jovens, começaram a lidar com o “bate -papo GBT” como se ele fosse um treinador pessoal ou consultor da vida. Embora ele tenha visto isso como evidência da eficácia da tecnologia, ele alertou sobre mais de uma ocasião do perigo de dependência excessiva da inteligência artificial para tomar decisões fatídicas, enfatizando que o governo humano não pode ser substituído.
Os seres humanos estão no coração dos riscos
O momento dessas medidas se cruza com uma tendência cada vez mais global para se concentrar em “riscos humanos”. Em áreas como a segurança cibernética, o erro humano é visto como o elo mais fraco, e agora esse conceito se estende à inteligência artificial. A realização de “oben ai” de que os próprios usuários e não apenas os algoritmos são o ponto de fraqueza, o que representa uma mudança em direção ao conceito de “segurança centrada em torno do homem”.
Esses desenvolvimentos também ocorrem, enquanto órgãos legislativos em todo o mundo promulgam leis estritas. A União Europeia introduziu padrões obrigatórios para a proteção das crianças e dos Estados Unidos que discute estruturas semelhantes, enquanto a Arábia Saudita e os Emirados Árabes Unidos estabelecem blogs morais para inteligência artificial que leva em consideração os valores culturais e sociais.
Ao anunciar as ferramentas de supervisão dos pais, “Oben AI” envia uma mensagem clara aos organizadores: não estamos aguardando a imposição de legislação, mas é proativa. Isso pode levar os concorrentes seniores como “Google Depp Mind”, “Mita” e “Anthropic” para acelerar seus esforços nessa direção.
A confiança do usuário é a base para espalhar
Com a inteligência artificial entrando em aulas, escritórios e setor de saúde, a questão é levantada sobre a capacidade das pessoas de construí -lo amplamente antes de tranquilizar que elas acreditavam para eles e seus filhos. Os analistas alertam que qualquer inadimplência nesse aspecto pode ameaçar não apenas a reputação das empresas, mas suas parcerias com governos e instituições educacionais e de saúde. Portanto, a segurança não é mais apenas uma responsabilidade moral, mas uma estratégia básica de trabalho.
A Openai promete mais atualizações sobre seu mapa de segurança para segurança nos próximos meses, com o envolvimento de educadores, pais e grupos da sociedade civil na formulação de políticas. E ela confirma que “a segurança não pode ser construída isoladamente”.
No entanto, o acidente do adolescente que perdeu a vida continuará sendo um lembrete doloroso do que está em jogo. Ele mostrou que a inteligência artificial não é apenas um meio de produtividade ou criatividade, mas pode ter consequências que afetam diretamente a vida humana.
E se esse trágico acidente formar a primeira faísca, o teste real será se essas promessas se transformarem em um compromisso permanente que coloca uma pessoa no coração da inovação.