O Futuro dos Negócios

Opinião|O Futuro dos negócios chegou depois de quase 70 verões


Depois de muitos anos de expectativas e promessas, começamos a viver em um mundo onde a Inteligência Artificial é uma realidade inescapável

Por Guy Perelmuter

No livro de 1926 The Sun Also Rises (ou “O Sol Também se Levanta”), de Ernest Hemingway (1899-1961), em determinado momento é feita a pergunta “Como você foi à falência?”. A resposta: “De duas maneiras. Gradualmente, e então repentinamente.” Esta parece ser exatamente a maneira através da qual o futuro chega ao nosso dia-a-dia: gradualmente e, então, repentinamente. A tecnologia que, depois de décadas de expectativas, promessas, dúvidas e medos chegou para ficar é a Inteligência Artificial. Mesmo sem saber, você já está utilizando algum aspecto deste paradigma de processamento, e para o futuro dos negócios, poucas tendências serão tão importantes nos próximos anos quanto a integração de processos, ferramentas, sistemas e metodologias inteligentes nas atividades de uma empresa.

Em uma de nossas primeiras colunas, que você pode ler aqui, fizemos um breve histórico das origens deste campo do conhecimento humano, cujo “nascimento” tem data e local. Em 31 de agosto de 1955, a Proposta para o projeto de pesquisa sobre Inteligência Artificial na Universidade de Dartmouth (EUA) é assinada por John McCarthy (1927-2011), Marvin Minsky (1927-2016), Nathaniel Rochester (1919-2001) e Claude Shannon (1916-2001). Na época, os quatro cientistas estavam trabalhando respectivamente no Dartmouth College, Harvard, IBM e Bell Labs – mais um exemplo de como pode ser produtiva a colaboração entre universidades e empresas. A proposta dizia:

“Propomos que um estudo de inteligência artificial de dois meses e dez pessoas seja realizado durante o verão de 1956 no Dartmouth College em Hanover, New Hampshire. O estudo deve prosseguir com base na conjectura de que todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem, em princípio, ser descritos tão precisamente que uma máquina pode ser feita para simulá-la. Será feita uma tentativa de descobrir como fazer com que as máquinas usem linguagem, abstrações de formas e conceitos, resolvam tipos de problemas agora reservados para os humanos e melhorem a si mesmas. Pensamos que um avanço significativo pode ser feito em um ou mais desses problemas, se um grupo cuidadosamente selecionado de cientistas trabalhar em conjunto durante um verão.”

continua após a publicidade
Inteligência artificial tem impacto em todas as áreas e também no mercado de trabalho. Foto: Ints Kalnins/Reuters -21/1/2013

Depois de quase setenta verões — e não apenas um — a hora e a vez da Inteligência Artificial chegou, trazendo consigo questionamentos éticos e filosóficos, possibilidades de colaboração entre seres humanos e máquinas, aceleração potencial no desenvolvimento de múltiplos campos do conhecimento e, claro, riscos e desafios para toda sociedade.

Antes de começarmos a discutir alguns dos aspectos práticos e impactos estratégicos desta tecnologia, vamos tentar, de forma simplificada, apresentar uma estrutura que facilite o entendimento de alguns dos principais termos utilizados em discussões sobre o assunto. A Inteligência Artificial (ou AI, do inglês Artificial Intelligence) pode ser definida como um campo da ciência da computação que se concentra na criação de máquinas que, baseadas em modelos matemáticos, procuram imitar a forma de “pensar” dos seres humanos através do desenvolvimento de algoritmos e sistemas que analisam dados, tomam decisões e executam tarefas sem a necessidade de instruções explícitas. Alguns exemplos incluem reconhecimento de fala, reconhecimento de imagem e tradução de idiomas.

continua após a publicidade

Um dos campos de maior relevância em Inteligência Artificial é o “aprendizado de máquina” (em inglês, machine learning), que utiliza algoritmos e modelos estatísticos para permitir que computadores aprendam com os dados, sem serem explicitamente programados. No aprendizado de máquina, um computador é alimentado com um grande conjunto de dados e usa análise estatística para identificar padrões e encontrar relações entre eles. Por exemplo: ao invés de escrevermos um código que ensina um computador a reconhecer a imagem de um gato — uma tarefa extremamente complexa — simplesmente apresentamos milhares ou milhões de imagens de gatos para que a própria máquina comece a deduzir quais as características de uma imagem que indicam a presença (ou não) de um gato.

Mas que estrutura é utilizada no aprendizado de máquina? Quase sempre estamos lidando com uma rede neural artificial, inspirada no cérebro humano. São formadas por “neurônios” (ou unidades de cálculo) interconectados, que processam e transmitem informações. Uma rede neural é treinada ajustando-se os pesos das conexões entre os neurônios com base nos dados de entrada e saída. Ao analisar grandes conjuntos de dados e ajustar as conexões entre os neurônios, uma rede neural aprende a reconhecer padrões e tomar decisões. O termo deep learning (“aprendizado profundo”) vem justamente do uso de redes neurais com muitas camadas.

Com esses elementos em mente — AI, machine learning, redes neurais artificiais e deep learning — podemos dar o próximo passo e discutir, na próxima coluna, os impactos (positivos e negativos) em curso ao redor do mundo. Até lá.

No livro de 1926 The Sun Also Rises (ou “O Sol Também se Levanta”), de Ernest Hemingway (1899-1961), em determinado momento é feita a pergunta “Como você foi à falência?”. A resposta: “De duas maneiras. Gradualmente, e então repentinamente.” Esta parece ser exatamente a maneira através da qual o futuro chega ao nosso dia-a-dia: gradualmente e, então, repentinamente. A tecnologia que, depois de décadas de expectativas, promessas, dúvidas e medos chegou para ficar é a Inteligência Artificial. Mesmo sem saber, você já está utilizando algum aspecto deste paradigma de processamento, e para o futuro dos negócios, poucas tendências serão tão importantes nos próximos anos quanto a integração de processos, ferramentas, sistemas e metodologias inteligentes nas atividades de uma empresa.

Em uma de nossas primeiras colunas, que você pode ler aqui, fizemos um breve histórico das origens deste campo do conhecimento humano, cujo “nascimento” tem data e local. Em 31 de agosto de 1955, a Proposta para o projeto de pesquisa sobre Inteligência Artificial na Universidade de Dartmouth (EUA) é assinada por John McCarthy (1927-2011), Marvin Minsky (1927-2016), Nathaniel Rochester (1919-2001) e Claude Shannon (1916-2001). Na época, os quatro cientistas estavam trabalhando respectivamente no Dartmouth College, Harvard, IBM e Bell Labs – mais um exemplo de como pode ser produtiva a colaboração entre universidades e empresas. A proposta dizia:

“Propomos que um estudo de inteligência artificial de dois meses e dez pessoas seja realizado durante o verão de 1956 no Dartmouth College em Hanover, New Hampshire. O estudo deve prosseguir com base na conjectura de que todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem, em princípio, ser descritos tão precisamente que uma máquina pode ser feita para simulá-la. Será feita uma tentativa de descobrir como fazer com que as máquinas usem linguagem, abstrações de formas e conceitos, resolvam tipos de problemas agora reservados para os humanos e melhorem a si mesmas. Pensamos que um avanço significativo pode ser feito em um ou mais desses problemas, se um grupo cuidadosamente selecionado de cientistas trabalhar em conjunto durante um verão.”

Inteligência artificial tem impacto em todas as áreas e também no mercado de trabalho. Foto: Ints Kalnins/Reuters -21/1/2013

Depois de quase setenta verões — e não apenas um — a hora e a vez da Inteligência Artificial chegou, trazendo consigo questionamentos éticos e filosóficos, possibilidades de colaboração entre seres humanos e máquinas, aceleração potencial no desenvolvimento de múltiplos campos do conhecimento e, claro, riscos e desafios para toda sociedade.

Antes de começarmos a discutir alguns dos aspectos práticos e impactos estratégicos desta tecnologia, vamos tentar, de forma simplificada, apresentar uma estrutura que facilite o entendimento de alguns dos principais termos utilizados em discussões sobre o assunto. A Inteligência Artificial (ou AI, do inglês Artificial Intelligence) pode ser definida como um campo da ciência da computação que se concentra na criação de máquinas que, baseadas em modelos matemáticos, procuram imitar a forma de “pensar” dos seres humanos através do desenvolvimento de algoritmos e sistemas que analisam dados, tomam decisões e executam tarefas sem a necessidade de instruções explícitas. Alguns exemplos incluem reconhecimento de fala, reconhecimento de imagem e tradução de idiomas.

Um dos campos de maior relevância em Inteligência Artificial é o “aprendizado de máquina” (em inglês, machine learning), que utiliza algoritmos e modelos estatísticos para permitir que computadores aprendam com os dados, sem serem explicitamente programados. No aprendizado de máquina, um computador é alimentado com um grande conjunto de dados e usa análise estatística para identificar padrões e encontrar relações entre eles. Por exemplo: ao invés de escrevermos um código que ensina um computador a reconhecer a imagem de um gato — uma tarefa extremamente complexa — simplesmente apresentamos milhares ou milhões de imagens de gatos para que a própria máquina comece a deduzir quais as características de uma imagem que indicam a presença (ou não) de um gato.

Mas que estrutura é utilizada no aprendizado de máquina? Quase sempre estamos lidando com uma rede neural artificial, inspirada no cérebro humano. São formadas por “neurônios” (ou unidades de cálculo) interconectados, que processam e transmitem informações. Uma rede neural é treinada ajustando-se os pesos das conexões entre os neurônios com base nos dados de entrada e saída. Ao analisar grandes conjuntos de dados e ajustar as conexões entre os neurônios, uma rede neural aprende a reconhecer padrões e tomar decisões. O termo deep learning (“aprendizado profundo”) vem justamente do uso de redes neurais com muitas camadas.

Com esses elementos em mente — AI, machine learning, redes neurais artificiais e deep learning — podemos dar o próximo passo e discutir, na próxima coluna, os impactos (positivos e negativos) em curso ao redor do mundo. Até lá.

No livro de 1926 The Sun Also Rises (ou “O Sol Também se Levanta”), de Ernest Hemingway (1899-1961), em determinado momento é feita a pergunta “Como você foi à falência?”. A resposta: “De duas maneiras. Gradualmente, e então repentinamente.” Esta parece ser exatamente a maneira através da qual o futuro chega ao nosso dia-a-dia: gradualmente e, então, repentinamente. A tecnologia que, depois de décadas de expectativas, promessas, dúvidas e medos chegou para ficar é a Inteligência Artificial. Mesmo sem saber, você já está utilizando algum aspecto deste paradigma de processamento, e para o futuro dos negócios, poucas tendências serão tão importantes nos próximos anos quanto a integração de processos, ferramentas, sistemas e metodologias inteligentes nas atividades de uma empresa.

Em uma de nossas primeiras colunas, que você pode ler aqui, fizemos um breve histórico das origens deste campo do conhecimento humano, cujo “nascimento” tem data e local. Em 31 de agosto de 1955, a Proposta para o projeto de pesquisa sobre Inteligência Artificial na Universidade de Dartmouth (EUA) é assinada por John McCarthy (1927-2011), Marvin Minsky (1927-2016), Nathaniel Rochester (1919-2001) e Claude Shannon (1916-2001). Na época, os quatro cientistas estavam trabalhando respectivamente no Dartmouth College, Harvard, IBM e Bell Labs – mais um exemplo de como pode ser produtiva a colaboração entre universidades e empresas. A proposta dizia:

“Propomos que um estudo de inteligência artificial de dois meses e dez pessoas seja realizado durante o verão de 1956 no Dartmouth College em Hanover, New Hampshire. O estudo deve prosseguir com base na conjectura de que todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem, em princípio, ser descritos tão precisamente que uma máquina pode ser feita para simulá-la. Será feita uma tentativa de descobrir como fazer com que as máquinas usem linguagem, abstrações de formas e conceitos, resolvam tipos de problemas agora reservados para os humanos e melhorem a si mesmas. Pensamos que um avanço significativo pode ser feito em um ou mais desses problemas, se um grupo cuidadosamente selecionado de cientistas trabalhar em conjunto durante um verão.”

Inteligência artificial tem impacto em todas as áreas e também no mercado de trabalho. Foto: Ints Kalnins/Reuters -21/1/2013

Depois de quase setenta verões — e não apenas um — a hora e a vez da Inteligência Artificial chegou, trazendo consigo questionamentos éticos e filosóficos, possibilidades de colaboração entre seres humanos e máquinas, aceleração potencial no desenvolvimento de múltiplos campos do conhecimento e, claro, riscos e desafios para toda sociedade.

Antes de começarmos a discutir alguns dos aspectos práticos e impactos estratégicos desta tecnologia, vamos tentar, de forma simplificada, apresentar uma estrutura que facilite o entendimento de alguns dos principais termos utilizados em discussões sobre o assunto. A Inteligência Artificial (ou AI, do inglês Artificial Intelligence) pode ser definida como um campo da ciência da computação que se concentra na criação de máquinas que, baseadas em modelos matemáticos, procuram imitar a forma de “pensar” dos seres humanos através do desenvolvimento de algoritmos e sistemas que analisam dados, tomam decisões e executam tarefas sem a necessidade de instruções explícitas. Alguns exemplos incluem reconhecimento de fala, reconhecimento de imagem e tradução de idiomas.

Um dos campos de maior relevância em Inteligência Artificial é o “aprendizado de máquina” (em inglês, machine learning), que utiliza algoritmos e modelos estatísticos para permitir que computadores aprendam com os dados, sem serem explicitamente programados. No aprendizado de máquina, um computador é alimentado com um grande conjunto de dados e usa análise estatística para identificar padrões e encontrar relações entre eles. Por exemplo: ao invés de escrevermos um código que ensina um computador a reconhecer a imagem de um gato — uma tarefa extremamente complexa — simplesmente apresentamos milhares ou milhões de imagens de gatos para que a própria máquina comece a deduzir quais as características de uma imagem que indicam a presença (ou não) de um gato.

Mas que estrutura é utilizada no aprendizado de máquina? Quase sempre estamos lidando com uma rede neural artificial, inspirada no cérebro humano. São formadas por “neurônios” (ou unidades de cálculo) interconectados, que processam e transmitem informações. Uma rede neural é treinada ajustando-se os pesos das conexões entre os neurônios com base nos dados de entrada e saída. Ao analisar grandes conjuntos de dados e ajustar as conexões entre os neurônios, uma rede neural aprende a reconhecer padrões e tomar decisões. O termo deep learning (“aprendizado profundo”) vem justamente do uso de redes neurais com muitas camadas.

Com esses elementos em mente — AI, machine learning, redes neurais artificiais e deep learning — podemos dar o próximo passo e discutir, na próxima coluna, os impactos (positivos e negativos) em curso ao redor do mundo. Até lá.

No livro de 1926 The Sun Also Rises (ou “O Sol Também se Levanta”), de Ernest Hemingway (1899-1961), em determinado momento é feita a pergunta “Como você foi à falência?”. A resposta: “De duas maneiras. Gradualmente, e então repentinamente.” Esta parece ser exatamente a maneira através da qual o futuro chega ao nosso dia-a-dia: gradualmente e, então, repentinamente. A tecnologia que, depois de décadas de expectativas, promessas, dúvidas e medos chegou para ficar é a Inteligência Artificial. Mesmo sem saber, você já está utilizando algum aspecto deste paradigma de processamento, e para o futuro dos negócios, poucas tendências serão tão importantes nos próximos anos quanto a integração de processos, ferramentas, sistemas e metodologias inteligentes nas atividades de uma empresa.

Em uma de nossas primeiras colunas, que você pode ler aqui, fizemos um breve histórico das origens deste campo do conhecimento humano, cujo “nascimento” tem data e local. Em 31 de agosto de 1955, a Proposta para o projeto de pesquisa sobre Inteligência Artificial na Universidade de Dartmouth (EUA) é assinada por John McCarthy (1927-2011), Marvin Minsky (1927-2016), Nathaniel Rochester (1919-2001) e Claude Shannon (1916-2001). Na época, os quatro cientistas estavam trabalhando respectivamente no Dartmouth College, Harvard, IBM e Bell Labs – mais um exemplo de como pode ser produtiva a colaboração entre universidades e empresas. A proposta dizia:

“Propomos que um estudo de inteligência artificial de dois meses e dez pessoas seja realizado durante o verão de 1956 no Dartmouth College em Hanover, New Hampshire. O estudo deve prosseguir com base na conjectura de que todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem, em princípio, ser descritos tão precisamente que uma máquina pode ser feita para simulá-la. Será feita uma tentativa de descobrir como fazer com que as máquinas usem linguagem, abstrações de formas e conceitos, resolvam tipos de problemas agora reservados para os humanos e melhorem a si mesmas. Pensamos que um avanço significativo pode ser feito em um ou mais desses problemas, se um grupo cuidadosamente selecionado de cientistas trabalhar em conjunto durante um verão.”

Inteligência artificial tem impacto em todas as áreas e também no mercado de trabalho. Foto: Ints Kalnins/Reuters -21/1/2013

Depois de quase setenta verões — e não apenas um — a hora e a vez da Inteligência Artificial chegou, trazendo consigo questionamentos éticos e filosóficos, possibilidades de colaboração entre seres humanos e máquinas, aceleração potencial no desenvolvimento de múltiplos campos do conhecimento e, claro, riscos e desafios para toda sociedade.

Antes de começarmos a discutir alguns dos aspectos práticos e impactos estratégicos desta tecnologia, vamos tentar, de forma simplificada, apresentar uma estrutura que facilite o entendimento de alguns dos principais termos utilizados em discussões sobre o assunto. A Inteligência Artificial (ou AI, do inglês Artificial Intelligence) pode ser definida como um campo da ciência da computação que se concentra na criação de máquinas que, baseadas em modelos matemáticos, procuram imitar a forma de “pensar” dos seres humanos através do desenvolvimento de algoritmos e sistemas que analisam dados, tomam decisões e executam tarefas sem a necessidade de instruções explícitas. Alguns exemplos incluem reconhecimento de fala, reconhecimento de imagem e tradução de idiomas.

Um dos campos de maior relevância em Inteligência Artificial é o “aprendizado de máquina” (em inglês, machine learning), que utiliza algoritmos e modelos estatísticos para permitir que computadores aprendam com os dados, sem serem explicitamente programados. No aprendizado de máquina, um computador é alimentado com um grande conjunto de dados e usa análise estatística para identificar padrões e encontrar relações entre eles. Por exemplo: ao invés de escrevermos um código que ensina um computador a reconhecer a imagem de um gato — uma tarefa extremamente complexa — simplesmente apresentamos milhares ou milhões de imagens de gatos para que a própria máquina comece a deduzir quais as características de uma imagem que indicam a presença (ou não) de um gato.

Mas que estrutura é utilizada no aprendizado de máquina? Quase sempre estamos lidando com uma rede neural artificial, inspirada no cérebro humano. São formadas por “neurônios” (ou unidades de cálculo) interconectados, que processam e transmitem informações. Uma rede neural é treinada ajustando-se os pesos das conexões entre os neurônios com base nos dados de entrada e saída. Ao analisar grandes conjuntos de dados e ajustar as conexões entre os neurônios, uma rede neural aprende a reconhecer padrões e tomar decisões. O termo deep learning (“aprendizado profundo”) vem justamente do uso de redes neurais com muitas camadas.

Com esses elementos em mente — AI, machine learning, redes neurais artificiais e deep learning — podemos dar o próximo passo e discutir, na próxima coluna, os impactos (positivos e negativos) em curso ao redor do mundo. Até lá.

Opinião por Guy Perelmuter

Fundador da Grids Capital e autor do livro "Futuro Presente - O mundo movido à tecnologia", vencedor do Prêmio Jabuti 2020 na categoria Ciências. É engenheiro de computação e mestre em inteligência artificial

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.