quinta-feira, 9 de dezembro de 2010

Customer Relationship Management - CRM


Customer RelationShip Management (CRM)-


Gestão relação cliente




Introdução à gestão da relação cliente

O cliente é geralmente a principal fonte de rendimentos para as empresas. Ora, com a mudança da economia devido nomeadamente à integração das novas tecnologias nas relações cliente-empresa, a concorrência torna-se cada vez mais apertada e assim os clientes podem doravante dar-se ao luxo de escolher o seu fornecedor ou mudar com um simples clique. Os critérios de escolha dos clientes são nomeadamente critérios financeiros, de reatividade da empresa mas igualmente critérios meramente afetivos (necessidade de reconhecimento, necessidade de ser ouvido,…). Assim, num mundo cada vez mais concorrencial, as empresas que desejam aumentar os seus benefícios têm várias alternativas:
·                       Aumentar a margem em cada cliente,
·                       Aumentar o número de clientes,
·                       Aumentar o ciclo de vida do cliente, quer dizer, fideliza-lo.


As novas tecnologias permitem às empresas conhecer melhor a sua clientela e ganhar a sua fidelidade, utilizando as informações que se relacionam com eles de maneira a delimitar melhor as suas necessidades e, por conseguinte, responder-lhes. 

Assim, provou-se que fidelizar um cliente ficava 5 vezes mais barato do que prospectar novos. É a razão pela qual um grande número de empresas orienta a sua estratégia em redor dos serviços propostos aos seus clientes.

O que é o CRM ?

O
 CRM ((Customer Relationship Management, ou em português GRC, gestão da relação cliente) visa propor soluções tecnológicas que permitem reforçar a comunicação entre a empresa e os seus clientes, para melhorar a relação com a clientela automatizando as diferentes componente da relação cliente:


·                       A ante-venda: trata-se do marketing, consistindo em estudar o mercado, isto é, as necessidades dos clientes e iniciar diligências. A análise das informações recolhidas sobre o cliente permite à empresa re-examinar a sua gama de produtos para responder mais precisamente aos seus desejos. O Enterprise Marketing Automatização (EMA) consiste assim em automatizar as campanhas de marketing.


·                       As vendas: A Automatização das Forças de Vendas (Sales Forces Automation, SFA), consiste em fornecer instrumentos de pilotagem ao comerciais para os apoiar nas suas diligências de prospecção (gestão dos contactos, dos encontros, das reativações, mas também auxílio à elaboração de propostas comerciais,…).


·                       A gestão do serviço clientela: o cliente gosta de saber que é conhecido na empresa e não suporta ter de recapitular, a cada contacto, o historial da sua relação à empresa.


·                       O pós-venda, que consiste em fornecer uma assistência ao cliente, nomeadamente através da criação de centros de chamadas (chamados geralmente Call centers, Help Desk ou Hot-Line) e através da  disponibilização em linha de informações de apoio técnico.


O objeto do CRM é estar mais à escuta do cliente para responder às suas necessidades e para o fidelizar. Um projeto de CRM consiste então em permitir a cada sector da empresa aceder ao sistema de informação, para estar em condições de melhorar o conhecimento do cliente e fornecer-lhe produtos ou serviços que respondem o melhor possível aos seus desejos.


Exemplo Integração do CRM na empresa


A aplicação de soluções de CRM numa empresa não consiste unicamente em instalar um "software" ad hoc, mas em alterar a organização de toda a empresa, o que implica uma consciemcialização de um projeto de condução da mudança. Com efeito, a aplicação de uma estratégia de CRM impõe modificações estruturais, de competências e comportamentais.

Business Inteligence – BI

Business Inteligence (BI)
O BI objetiva oferecer informações para apoiar a decisão dos gerentes e executivos de uma organização, com base em dados históricos da empresa. O termo BI foi sugerido na década de 80 pelo Gartner Group.
As informações geradas pelos sistemas de BI são extraídas de múltiplas fontes de dados, transformando tais dados em informações úteis para a organização.
A idéia básica de um sistema de BI consiste em cruzar informações vindas de sistemas ERP, CRM, de departamentos internos da empresa e de fontes externas como noticias ou Internet, tratar e formatar estes dados e consolidá-los em um único banco de dados. Após serem armazenadas estas informações ficam disponíveis em DataWarehouses (Armazém de dados) ou DataMarts para consultas que visam embasar a tomada de decisão dos executivos da empresa.
            DataWarehouse (DW) armazena base de dados históricas da empresa, com informações de todos os departamentos (Marketing, Financeiro, Recursos Humanos, Produção), por ter um custo elevado o DW muitas vezes é dividido em partes menores chamadas de DataMarts (DM).
Um DM consolida as informações de um determinado departamento apenas, um DM para Marketing, outro para o Financeiro, desta forma, após a criação de um DM para cada departamento pode-se unir todos formando um únicoDataWarehouse.   

        


Descrição dos componentes da arquitetura de BI 
ERP: Enterprise Resource Planning. Sistema cuja função é integrar as bases de dados operacionais.
CRM: Customer RelationShip Management. Efetuar um estudo com base nos dados do cliente para descobrir o seu perfil para o apoio estratégico da empresa.
Fontes Internas: Informações geradas dentro da própria empresa, por meio de Intranet, por exemplo.
Fontes Externas:Informações solicitas de fontes extra empresa, por exemplo, internet.
ETL: Processo de extração, transformação e carga de dados, bem como a sua formatação (tratamento).
DW: DataWarehouse, grande banco de dados histórico, integrado e estruturado para dar suporte ao processo gerencial.
DM: DataMarts, são pequenos DataWarehouses específicos para cada setor da empresa.
SIE: Sistema de informação Executiva. Consolida informações no melhor grau possível para analise.
DataMining Previsão de dados históricos, técnica para a previsão de comportamento de determinado produto.
OLAP: Online Analytical Processingconceito de cubos de decisão, possibilita ver os dados de várias maneiras para auxiliar na tomada de decisão.
Em resumo BI é uma metodologia que tem o objetivo de consolidar os dados de uma empresa para apoiar a tomada de decisão estratégica.  Os dados são armazenados nos DataWarehouses e ficam disponíveis para acesso através de  ferramentas de apoio a decisão.


quarta-feira, 8 de dezembro de 2010

Data Mining – DM

Data Mining é uma tecnologia que emergiu da intersecção de três áreas: estatística clássica, inteligência artificial e aprendizado de máquina, sendo a primeira a mais antiga delas. Observa-se que o Data Mining é parte de um processo maior conhecido como KDD (Knowledge Discovery in Databases) – em português, Descoberta de Conhecimento em Bases de Dados –, que, segundo Addrians & Zantinge (1996), permite a extração não trivial de conhecimento previamente desconhecido e potencialmente útil de um banco de dados. Esse conceito é enfatizado por Fayyad et al. (1996b), ao afirmar que é “o processo não trivial de identificação de padrões válidos, desconhecidos, potencialmente úteis e, no final das contas, compreensíveis em dados”. Nesse contexto, o presente artigo tem como finalidade apresentar conceitos sobre as principais técnicas que envolvem a descoberta de conhecimento em grandes conjuntos de dados e relatar algumas características de um software específico para mineração de dados, o Clementine, da SPSS, bem como aplicações realizadas nesta ferramenta. Assim, são mostrados o processo de descoberta de conhecimento (KDD) e o Data Mining (DM), como parte desse processo, bem como suas técnicas e as metodologias estatísticas que as fundamentam. Em seguida, são discutidas as características de uma ferramenta de Data Mining, o Clementine, da SPSS, com a qual se desenvolve a aplicação relatada neste texto.


DESCOBERTA DE CONHECIMENTO (KDD) E DATA MINING (DM)

Considere-se uma hierarquia de complexidade: se algum significado especial é atribuído a um dado, ele se transforma em uma informação (ou fato). De acordo com Sade (1996), se uma norma  (ou regra) é elaborada, a interpretação do confronto entre o fato e a regra constitui um conhecimento. O processo KDD é constituído de várias etapas, como ilustrado na figura 1, que são executadas de forma interativa e iterativa. De acordo com Brachman & Anand (1996), as etapas são interativas porque envolvem a cooperação da pessoa responsável pela análise de dados, cujo conhecimento sobre o domínio orientará a execução do processo. Por sua vez, a iteração deve-se ao fato de que, com freqüência, esse processo não é executado de forma seqüencial, mas envolve repetidas seleções de parâmetros e conjunto de dados, aplicações das técnicas de Data Mining e posterior análise dos resultados obtidos, a fim de refinar os conhecimentos extraídos. Dentre as várias etapas do processo KDD, a principal, que forma o núcleo do processo e que, muitas vezes, confunde-se com ele, chama-se Data Mining.

DATA MINING


Data Mining, ou Mineração de Dados, pode ser entendido como o processo de extração de informações, sem conhecimento prévio, de um grande banco de dados e seu uso para tomada de decisões. É uma metodologia aplicada em diversas áreas que usam o conhecimento, como empresas, indústrias e instituições de pesquisa. Data Mining define o processo automatizado de captura e análise de grandes conjuntos de dados para extrair um significado, sendo usado tanto para descrever características do passado como para predizer tendências para o futuro.

CLEMENTINE: UMA FERRAMENTA DE DATA MINING




Todos os passos do processo de descoberta de conhecimento podem ser realizados pelo Clementine. No entanto, segundo o manual do usuário (Clementine Users Guide, 2001), a metodologia indicada para ser usada em conjunto com a ferramenta é o modelo CRISP-DM (Cross-Industry Standard Process for Data Mining), que foi desenvolvido a partir da experiência de três empresas pioneiras no setor: a DaimlerChrysler, que aplica análises de Data Mining em seus negócios desde 1996; a NCR, que provê soluções de Data Warehouse; e a SPSS, que disponibiliza soluções baseadas no processo de mineração de dados desde 1990. Essa metodologia é composta por seis fases, como ilustrado na figura abaixo.

Como pode ser observada na figura, a seqüência das fases desse processo não é rígida. Voltar e ir avante entre as diferentes fases é sempre necessário. Dessa forma, uma fase depende do resultado de outra,
ou da tarefa particular de uma fase que precisa ser executada na próxima etapa. O círculo externo simboliza a natureza cíclica do processo de Data Mining.

A Interface de Programação Visual do

Clementine.

A área de trabalho, ou desktop, também chamada de stream pane, é a área de construção e manipulação dos streams e dados. Em outras palavras, é a área de construção do modelo de Data Mining. Os nós apresentam-se agrupados de acordo com seu tipo de funcionalidade na paleta de objetos localizada na parte inferior da área de trabalho do Clementine, que pode ser acessado e do qual é possível importar dados, por meio das funcionalidades dos nós do grupo Source; manipular registros e campos, através do grupo Record Ops; visualizar os dados a partir de gráficos contidos nos diversos nós do grupo Graphs; construir modelos por meio de uma variedade de técnicas de modelagem disponíveis no grupo Modelling; e avaliar os resultados com os recursos do grupo Output. A paleta de modelos gerados, localizada à direita do leitor na área de trabalho, contém os resultados de um modelo construído depois de executado. Para executar um modelo, basta clicar no botão de execução, abaixo da paleta de modelos gerados. Ao se clicar no botão, todos os streams válidos são executados. O Report Window, localizado abaixo da paleta de objetos, provê um feedback do progresso de várias operações, tal como quando os dados estão sendo lidos. O Status Window, também abaixo da paleta de objetos, provê informação sobre o que a aplicação está realizando no momento, bem como mensagens de pedido de retorno do usuário.

 
 
 

Inteligência Artificial – IA

      A Inteligência Artificial (IA) é uma área de pesquisa da ciência da computação e Engenharia da Computação, dedicada a buscar métodos ou dispositivos computacionais que possuam ou simulem a capacidade racional de resolver problemas, pensar ou, de forma ampla, ser inteligente.

     O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing, e o próprio nome foi cunhado em 1956. Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren McCulloch, Walter Pitts e Marvin Minsky, entre outros. A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história um registro significante de autômatos mecânicos (reais) e personagens místicos, como Frankenstein, que demonstram um sentimento ambíguo do homem, composto de fascínio e de medo, em relação à Inteligência Artificial.
   Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras. Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a idéia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.

IA forte e IA fraca

Entre os teóricos que estudam o que é possível fazer com a IA existe uma discussão onde se consideram duas propostas básicas: uma conhecida como "forte" e outra conhecida como "fraca". Basicamente, a hipótese da IA forte considera ser possível criar uma máquina consciente.
Uma popular e inicial definição de inteligência artificial, introduzida por John McCarty na famosa conferência de Dartmouth em 1955 é "fazer a máquina comportar-se de tal forma que seja chamada inteligente caso fosse este o comportamento de um ser humano." No entanto, esta definição parece ignorar a possibilidade de existir a IA forte (ver abaixo). Outra definição de Inteligência Artificial é a inteligência que surge de um "dispositivo artificial". A maior parte das definições podem ser categorizadas em sistemas que: "pensam como um humano; agem como um humano; pensam racionalmente ou agem racionalmente".

Inteligência artificial forte

A investigação em Inteligência Artificial Forte aborda a criação da forma de inteligência baseada em computador que consiga raciocinar e resolver problemas; uma forma de IA forte é classificada como auto-consciente
A IA forte é tema bastante controverso, pois envolve temas como consciência e fortes problemas éticos ligados ao que fazer com uma entidade que seja cognitivamente indiferenciável de seres humanos. A ficção científica tratou de muitos problemas desse tipo. Isaac Asimov, por exemplo, escreveu O Homem Bicentenário, onde um robô consciente e inteligente luta para possuir um status semelhante ao de um humano na sociedade. E Steven Spielberg escreveu "A.I. Inteligência Artificial" onde um garoto-robô procura conquistar o amor de sua "mãe", procurando uma maneira de se tornar real. Por outro lado, o mesmo Asimov reduz os robôs a servos dos seres humanos ao propor as três leis da robótica.

Inteligência artificial fraca

Trata-se da noção de como lidar com problemas não determinísticos.
Uma contribuição prática de Alan Turing foi o que se chamou depois de Teste de Turing (TT), de 1950: em lugar de responder à pergunta "podem-se ter computadores inteligentes?" ele formulou seu teste, que se tornou praticamente o ponto de partida da pesquisa em "Inteligência Artificial".
   O teste consiste em se fazer perguntas a uma pessoa e um computador escondidos. Um computador e seus programas passam no TT se, pelas respostas, for impossível a alguém distinguir qual interlocutor é a máquina e qual é a pessoa.
No seu artigo original ele fez a previsão de que até 2000 os computadores passariam seu teste. Pois bem, há um concurso anual de programas para o TT, e o resultado dos sistemas ganhadores é tão fraco (o último tem o nome "Ella") que com poucas perguntas logo percebe-se as limitações das respostas da máquina. É interessante notar que tanto a Máquina de Turing quanto o Teste de Turing talvez derivem da visão que Turing tinha de que o ser humano é uma máquina.
   A inteligência artificial fraca centra a sua investigação na criação de inteligência artificial que não é capaz de verdadeiramente raciocinar e resolver problemas. Uma tal máquina com esta característica de inteligência agiria como se fosse inteligente, mas não tem autoconsciência ou noção de si. O teste clássico para aferição da inteligência em máquinas é o Teste de Turing. Enquanto que o progresso direcionado ao objetivo final de uma inteligência similar à humana tem sido lento, muitas derivações surgiram no processo. Exemplos notáveis incluem as linguagens LISP e Prolog, as quais foram desenvolvidas para pesquisa em IA, mas agora possuem funções não-IA. A cultura Hacker surgiu primeiramente em laboratórios de IA, em particular no MIT AI Lab, lar várias vezes de celebridades tais como McCarthy, Minsky, Seymour Papert (que desenvolveu a linguagem Logo), Terry Winograd (que abandonou IA depois de desenvolver SHRDLU).