Total de visualizações de página

segunda-feira, 21 de dezembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-08


Continuação:

#11-Outra palestra que mereceu a atenção foi dada por Danette McGilvray, consultora famosa na área de Qualidade de dados, da empresa Granite Falls. Conversei muito com Danette, com quem já havia estado no Brasil, em evento da QIBras, em 2010 ou 2011, não me lembro. Autora de livros sobre QD(Executing Data Quality projects), Danette mostrou a sua abordagem de detecção de causas raízes de erros de dados, focando na sua identificação e neutralização objetiva e definitiva  ao invés da mera limpeza profilática. Na realidade, é a abordagem de diagramas de espinha de peixe aplicado na detecção de problemas de Qualidade de dados. Trocamos linkedin e ficamos de falar sobre a tradução do seu livro para o português,  que acabou de sair na China.

#12-Também gostei da palestra de Jay Zaidi, com quem conversei muito sobre os aspectos culturais que aproximam e diferenciam os brasileiros e indianos (Isso será tema de um #VejaBem futuro, no FB). O consultor indiano, dono da empresa AlyData, marcou com a frase “Data is the new soil”, adaptação do título de um livro que comprei no EDW/2015 ( “Data is the new oil”). Sua concepção é de que dos dados podem sair ótimos frutos...No fundo, são frases de efeitos para evidenciar a valoração que o elemento “dados” está tendo, nesse momento “Big Data”  da sociedade da informação. A palestra “Change your organization´s culture to make data and information quality a part of its DNA” foi com conteúdo visual muito bem elaborado e centrou sobre os impactos financeiros que os erros de dados podem causar nas empresas. Por exemplo, o custo estimado das perdas com crimes cibernéticos é da ordem de US$ 450 bilhões, enquanto que o de problemas de qualidade pode chegar a mais do que o dobro(maior que US$800 bi). Os  principais fatos causadores ficam em torno da falta de Governança de dados, que gera falta de padrões de qualidade, que se origina na ausência de “accountability” pelos dados e que produz silos isolados de dados. Mais do mesmo nos princípios de Gestão (DM) e Governança de Dados(GD)

#13-Outra palestra muito boa foi a da Telstra, gigante telecom australiana. A empresa mostrou a sua estratégia de dados e me pareceu com boa maturidade em GD. A empresa já teve a figura de CDO, mas que por um erro estratégico, foi colocado sob o CIO. Durou apenas dois anos e poderia ter sido evitado, caso a empresa percebesse que CDO é para tocar os dados, do ponto de vista de negócios e não de tecnologia (TI). Simples assim...Há algum tempo a empresa prima pelo apoio formal à sua equipe de dados, no sentido de incentivá-los à certificações. Na empresa há mais de 20 certificados em IQCP(Information Quality Certified Professional), uma linha concorrente com as certificações CDMP, esta já com alguns profissionais no Brasil. Conversando com a palestrante, chefe da área de dados da gigante australiana, ficou evidenciado o porquê dessa linha IQCP. Ela é presidente do IAIDQ para a região do Middle-East-Pacific, entidade promotora desta certificação. 

segunda-feira, 14 de dezembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-07


#10- No último post, falamos de uma palestra do keynote, da IBM (foi proferida pelo Dr Pyiush Malik, da IBM  e teve o título de “Towards a smarter Data-driven future”) , onde o assunto “Watson”  foi tratado. Aproveito para intercalar nessa série de posts,  a tradução e  outros comentários sobre Watsom, inclusive  uma entrevista feita com os usuários (early adopters) da Plataforma e sua primeiras percepções.  O artigo, escrito por Tom Davenport(*) para o WSJ-CIO(Wall Street Journal-CIO) em dezembro de 2015 e traduzido e comentado por mim, encontra-se no link  http://blogs.wsj.com/cio/2015/12/03/lessons-from-the-cognitive-front-lines-early-adopters-of-ibms-watson/
Watson é uma das mais interessantes tecnologias do século 21. Desenvolvido pela IBM, no seu esforço de criar um exemplo real e aplicável de  uma plataforma de Inteligência artificial, o produto tornou-se famoso por vencer o programa Jeopardy, espécie de QUIZ, em 2011, show que apresentava perguntas genéricas sobre temas amplos, onde  grandes concorrentes profissionais e considerados imbatíveis  atuavam na disputa de prêmios altíssimos. Watson acabou por batê-los todos  A reportagem de Tom Daveport, especial para o Wall Street Journal, aqui traduzida e comentada,  garimpou os primeiros resultados do uso intensivo do Watson em segmentos da indústria, no caso em algumas organizações de “health care”. Várias grandes organizações se predispuseram a oferecer os primeiros “insights”  sobre a aplicação do Watson, no apoio à pesquisas de câncer, ou em desenvolvimento de testes clínicos, além de aplicações na área de veterinária. Organizações de peso nos EUA foram entrevistadas como o Memorial Sloan Kettering Cancer Center(MSKCC)-NYC, MD Anderson Cancer Center (MDACC)-Houston, Clínica Mayo-Minnesota e  WellTok. Esta, é  uma empresa cujo objetivo é a otimização do sistema de saúde e que basicamente objetiva levar o “senso”  de organização ao mundo caótico dos programas de saúde, aparelhos, sensores e outras ferramentas de melhoria nesse campo. Além dessas, também foi ouvida por Davenport uma empresa de produtos veterinários e outra no segmento de seguro de saúde. Todas são espécies de organizações  testadoras parceiras do sistema Watson e tentam , através dele, criar uma base espessa de informações, acessadas e trabalhadas pela Inteligência artificial. A parceria envolve  projetos cuja essência é a ingestão de informações dentro do expertise de cada uma, criando os  chamados  “corpus”, como são denominados os elementos de conhecimentos estruturados no Watson, a partir dos quais ele estabelece e busca inferência, gerando  e transmitindo conhecimento, por mecanismos de interfaces diversas. As perguntas(speech IO) são uma delas. A percepção de Davenport, com relação aos entrevistados é de que o produto é considerado mesmo pioneiro e quebrador de barreiras e paradigmas. Há unanimidade na percepção de sua complexidade no processo de ingestão de dados para a formação dos elementos de conhecimento, mas também na sua capacidade rápida de  aprender . Há vários projetos envolvidos entre esses diversos  parceiros do Watson. Um hospital usa o sistema para testes clínicos envolvendo novos tratamentos, novas drogas, vacinas,etc, enquanto outro o utiliza para estudos de tratamentos de câncer, especialmente de pulmão. Todos os projetos descritos são chamados “moon shots”, jargão para designar aqueles com objetivos ambiciosos e  difíceis de serem realizados com tecnologias atuais. O famoso Hospital MD Anderson, referência mundial em câncer, tem um programa de “moonshots”, cujo objetivo é reduzir dramaticamente a incidência e mortalidade dessa doença. Um deles treina o Watson para aprender sobre  câncer de pulmão, enquanto o outro desenvolve conhecimentos, via Watson,  para melhorar a qualidade dos tratamentos para os pacientes dessa doença, que não possam contar com um especialista. O Hospital MD Anderson intenciona criar um especialista   chamado OEA-Oncoly Expert Advisor, focado em tomada de decisão sobre tratamentos diferentes, sugeridos por especialistas e também visando o compartilhamento desse conhecimentos (de especialistas) no tratamento de um tipo específico de câncer, maximizando os benefícios e melhorando os resultados. Em outras palavras, como disse Davenport, a ousadia do projeto é  criar uma espécie de “arte” de tratar de câncer. Esses projetos, claro, são complexos e levam tempo. Alguns começaram em 2012 e continuam enfrentando desafios . Como, em tese, a doença é também  progressiva no seu desenvolvimento, os conhecimentos sobre ela continuarão sendo desenvolvidos, em projetos subsequentes, que continuarão por muito tempo. Os estágios iniciais desses projetos são de fazer a  ferramenta funcionar, mas na realidade esses projetos demandam profundas mudanças organizacionais e de negócios, além do aculturamento em tecnologias cognitivas, a fim de se chegar a transformações substanciais que possam materializar os resultados esperados. Os recursos colaterais demandados por um programa desses alcançam  aspectos críticos de “gestão/governança  de dados”, como plataformas, compartilhamento, acesso e segurança  de dados, alterações em aspectos de “compliance”  e regulações, além de mudanças culturais médicas cruciais para a condução do programa. Somente a abordagem de aspectos não tecnológicos, como esses, serão capazes de viabilizar e diminuir a complexidade do programa. É o que difere a inovação da transformação , conforme afirma uma das entrevistadas.  As exigências para a ingestão de informações específicas sobre oncologia, tratamentos, fármacos, bem estar, etc implica numa complexidade de estruturação de informações, onde a arquitetura semântica dos dados é fundamental a fim de evitar ou minimizar a ambiguidade . O desafio é justamente o mapeamento do conhecimento intuitivo dos médicos em estruturas formais de informação para serem colocadas nos bancos de dados do Watson. Essa parceria entre o corpo clínico envolvido nos projetos e os engenheiros de informação da IBM é crucial e leva tempo. Os envolvidos nos projetos estreantes(early adopters) pagarão um preço maior pelo ineditismo que demanda a descoberta dos processos a serem aplicados. O desafio central é realizar uma espécie de aprendizado.  Por exemplo, o sistema Watson tem que aprender quais seriam as recomendações seguras e mais adequadas ao caso, como num  possível tratamento de câncer de próstata. A extirpação da glândula, com suas consequências colaterais drásticas ou a introdução de “braquiterapia”, com a simples inserção de sementes radioativas no órgão, preservando todas as suas estruturas, porém recomendado somente em certas circunstâncias. O que hoje está no conhecimento intuitivo dos grandes urologistas, será  transformado em algoritmos cognitivos de uma plataforma de inteligência artificial. O aprendizado, segundo os envolvidos, pode ser mais rápido do que no caso de um aprendiz humano. Segundo uma pesquisadora, em 4 meses e meio o Watson aprendeu os conceitos de veterinária que um aluno levaria de 4 ou 5 anos, numa  formação acadêmica. Um dos maiores desafios é a ingestão e a digestão das informações colocadas no Watson, a fim de torna-lo capaz de aprender e inferir. Nos campos onde as informações estão mais bem estruturadas, com glossários de negócios e definições escritas e registradas, isso torna-se mais rápido. Quando a informação tem um ciclo de vida mais estático, as coisas funcionam melhor. Quando a informação ainda está sendo produzida(casos de pesquisas de tratamentos e drogas contra câncer, ainda em pesquisa e desenvolvimento, há claras dificuldades na ingestão dos dados). Nesses casos , com a inexistência de informações registradas em glossários de termos, o uso do recurso humano direto é aplicado para a introdução/ingestão de perguntas e respostas que comporão o “corpus” de conhecimento do Watson. Novamente os aspectos de “gestão e governança de dados”  influem nos passos dos projetos onde informações geram conhecimentos. Nesse caso em particular, a transferência é de conhecimento, pois envolve as sinapses do agente humano, além das estruturas dos bits existentes nos dados e informações. O Watson também está em constante evolução. Quando do início dos projetos, havia o Watson clássico, vencedor do programa Jeopardy. Hoje, há mais de 32 API´s cognitivas, atuando em campos diferentes, embora haja concentração preferencial em algumas delas. Por exemplo, a maioria deseja o uso da saída das respostas  em inglês. O uso de API´s para análise de imagens obviamente será outra, fundamental nos projetos de tratamentos de câncer, por exemplo. Já o projeto que visa a aplicação do Watson para análise de pedidos de planos de seguro de saúde, não considera a API de Q&A(Perguntas e Respostas) a mais importante. Todos os envolvidos nessa entrevista de Davenport são taxativos em afirmar que o Watson não será um substituto direto do recurso médico. Claramente o objetivo é usar a plataforma como um apoio às estruturas humanas e tecnológicas existentes, focando a plataforma no papel de um grande conselheiro que reúne um volume imensurável de informações, espalhadas por entre pessoas e compêndios médicos diversos  e capaz de sugerir ou responder em segundos dúvidas sobre situações específicas. A posição final, agrupadas todas as percepções colhidas nesses grandes centros do mundo, é que , embora complexo, o projeto é absolutamente real e irá revolucionar os tratamentos médicos e outros tipos de cuidados. A IBM levou 3 anos para dotar o Watson de capacidade para vencer o Jeopardy, mas vencer o câncer é mais complexo, finaliza uma dos entrevistados. Mas o esforço será compensado…Além da área de saúde, com o Watson Health, a IBM investe fortemente no uso do Watson em previsões meteorológicas. Em outubro, a Big Blue fechou um acordo para adquirir a Weather Company(exclui o Weather Channel). A aquisição incluirá o “Weather.com”,  uma vasta rede de pontos de coleta de dados de meteorologia , além de software e de uma equipe de 900 pessoas. O objetivo, claramente definido, é transformar o Watson  Weather em um grande previsor meteorológico e  iniciar o retorno de  parte dos investimentos aplicados no projeto de Computação cognitiva que resultou no sistema. Hoje o Watson é uma unidade independente da IBM, com 2500 empregados e a Big Blue aposta no seu sucesso na indústria da recomendação.

(*)Tom Davenport é professor , com distinção de TI e Gerência do Babson College e pesquisador do Centro de Estudos Digitais do MIT. É um dos mais destacados autores do HBR-Harvard Business Review. É autor de vários livros, sendo o último em co-autoria com  Jinho Kim,  chamado  “Keeping Up with the Quants: Your Guide to Understanding and Using Analytics”.

segunda-feira, 7 de dezembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-06


Eventos: MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  no seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.

Baseado na participação dos eventos acima, comento,  na forma de pequenas notas(drops), o estágio percebido dos conceitos de Governança de Dados, gestão de dados, MDM,etc. Serão aproximadamente 9 posts semanais...Enjoy..

#09-A primeira palestra “keynote”, foi proferida pelo Dr Pyiush Malik, da IBM  e teve o título de “Towards a smarter Data-driven future”. A sociedade em direção a um futuro mais inteligente, orientado a dados. Típica palestra de abertura de evento, dada pelo responsável pela área “Worldwide Big Data Analytics Center of Excellence da IBM”. Mostrou o futuro da sociedade com o crescimento dos dados e as devidas tecnologias emergentes associadas para tratá-los. Conceitos de Inteligência artificial, Machine Learning, Computação cognitiva, Robótica,etc foram os temas que ilustraram a palestra da 3afa, dia 13 de outubro. A ênfase dada pelo palestrante, em Inteligência artificial me soou um pouco propaganda, pelo fato da IBM ter feito sua grande aposta, nesse campo, no sistema Watson. O Watson, para quem não se lembra é aquele “ente/sistema” virtual de AI(Artificial Intelligence), formado por um gigantesco Banco de dados acoplado a centenas de máquinas e processadores poderosíssimos, capaz de responder a perguntas sobre uma gama de assuntos. Bateu e deixou no chinelo os grandes vencedores do programa “Jeopardy!” , show da TV americana, especializado em “trivias”. Hoje, a IBM desloca o Watson(agora uma unidade de negócios independente)  para o campo de apoio a medicina, meteorologia(acabou de fechar negócios com o Weather Company, por 2 bilhões de dólares),finanças, etc, como um sistema inteligente de apoio. A IBM vem desenvolvendo no Watson  novas capacidades, como melhoria na fala, entendimento de linguagem, reconhecimento de imagens,etc. A IBM sustenta que está criando a AI com computação cognitiva. Aliás, o conceito de AI(Inteligência Artificial) participa como candidata da “escolha” da tecnologia  de sucesso do momento, desde os anos 70, quando comecei com Informática. Nunca levou, sempre ficando na promessa. Essa semana, duas notícias no NYTimes me fizerem pensar se o momento da AI não está mais próximo. Seguinte: A Toiota, gigante do automobilismo mundial, lançou o seu Centro de Pesquisas Toiota, no Vale do Silício, totalmente focado em AI. Investimento de US$1 bilhão de dólares, para os próximos 5 anos. Vai contratar 300 especialistas em “machine laerning”. A grande montadora, foca no desenvolvimento de algoritmos inteligentes, que tornarão o carro um ambiente mais seguro. Seria como o desenvolvimento de um “Guardian Angel”, localizado nos seus automóveis, de olho mais especificamente na população mais idosa, que continua a crescer e a comprar carros. Vai de encontro ao posicionamento da UBer e Google, que apostam nos carros sem motoristas(driverless cars). De quebra a GE, também se junta à IBM, para formar a dupla de empresas (não de TI) que partiram para investimentos maciços em AI. A GE, clama, que em 2020, será uma das maiores produtoras de software do mundo. Veremos..A palestra do Dr Malik foi do  tipo show de informações interessantes, porém contrastada pela seriedade do indiano da IBM... Nas mãos de um apresentador “ bom de palco” teria tido maior sucesso ...

segunda-feira, 23 de novembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-05


Eventos: MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  no seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.



Baseado na participação dos eventos acima, comento,  na forma de pequenas notas(drops), o estágio percebido dos conceitos de Governança de Dados, gestão de dados, MDM,etc. Serão aproximadamente 9 posts semanais...Enjoy..

#07-O tutorial “How to avoid the most common mistakes implementing Data Governance”, mostrou John Ladley (da IMCue) estreando no universo do IAIDQ, já que trabalha prioritariamente  com a DataVersity, parceira da Dama, no evento EDW, do qual  participei, em março, em Washington. Ladley é um  conhecido consultor e palestrante da área, com 2 livros publicados sobre o assunto(Data Governance e EIM-Enterprise Information Management, ambos pela MK-Morgan Kaufmann). Tem um histórico meio dinossáurico, como eu, e aplica uma visão sobre GD, com uma tintura um pouco sarcástica, sobre certos conceitos, como modelagem de dados e métodos não-invasivos de implementação de GD, proposto por Bob Seiner (da KIK Data Management Consulting), seu concorrente, por exemplo. Os erros comuns, citados na sua apresentação, são os mesmos, na essência, que já discuti aqui nesse espaço. Vai de falta de patrocinador ou de seu engajamento até a falta de alinhamento  do programa de GD com os objetivos de negócios. Nenhuma novidade até ai...

#08-O outro tutorial “Developing a dashboard for Data Governance” versou sobre Medidas e dashboards para GD e foi ministrado pela consultora Kelle O´Neal, da empresa First San Francisco Partners. O tutorial foi superior ao anteriormente citado, na medida em que mostrou uma série de sugestões para se definir medidas e KPI´s, com o objetivo de se acompanhar a implementação do programa de Governança de dados, numa empresa. As medidas e KPI´s são fatores fundamentais para serem mostrados aos patrocinadores, como forma de evidência dos ganhos prometidos na “venda” do programa/conceito de GD. Claramente deverão estar associadas a certas dimensões de negócios, como Pessoas, Processos, Tecnologia e Dados. Os conceitos no entorno de Medições são os mesmos que desenvolvemos nas implementações de processos MPS.BR, nível F(ou maior), só que com o foco no domínio dos dados e seus processos. Passa pela definição da medição estritamente associada a um objetivo de negócios , sua constituição(quais dados serão levantados e medidos), quais os limites definidos, faixas desejadas de alcance/aceitação, periodicidade definida para criação e disponibilização das métricas e de seus resultados, etc. Foi mais prático e objetivo...

segunda-feira, 16 de novembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-04

Eventos: MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  no seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.


Baseado na participação dos eventos acima, comento,  na forma de pequenas notas(drops), o estágio percebido dos conceitos de Governança de Dados, gestão de dados, MDM,etc. Serão aproximadamente 9 posts semanais...Enjoy..


#05-Modelos de maturidade em dados. Durante os eventos, procurei, em conversas de “coffee break”, auscultar os participantes sobre o aparecimento de modelos mais formais de avaliação de maturidade em dados. Sunil Soares, por exemplo, grande consultor da área de Governança de dados, não tinha ouvido falar do DMM-Data Management Maturity Model, lançado em 2014, pelo respeitado CMMI Institute. Achava que o tal modelo era da IBM, de onde ele, Sunil, originou-se. O vice presidente do IAIDQ, organizador do evento de Baltimore, também não conhecia o modelo. Aaron Zornes, chairman do evento e o principal do MDM-Institute, também desconhecia o DMM e mostrou pouquíssima intimidade com o framework da Dama-Data Management Association, que explicitamente tem um dos corpos de conhecimentos sobre MDM e dados de referências. Em conversas, via linkedin, com um amigo, o consultor chinês(Chen Liu) dono da empresa Data Governance Workshop, em Beijin-China, tive a percepção da ainda lenta adoção do DMM naquele pais. Chen, com quem fiz o curso de introdução ao DMM em Abril, no CMMI-Institute-em DC, me disse das dificuldades de definir uma empresa para o assessment obrigatório necessário para se tornar um avaliador oficial DMM.  Já o consultor indiano Jay Zaidi, com quem travei boas conversas, conhecia o modelo, já que trabalhou na “Fanni Mae”, grande organização que controla hipotecas nos EUA e que foi uma espécie de betateste do modelo DMM. Falou bem do DMM. Peter Aiken,palestrante do evento, ex presidente da Dama Internacional, de quem ganhei uma camiseta da Data Blueprint( sua empresa), garante que o modelo está indo bem e tem realizado webminars em conjunto com Melanie Mecca, líder do DMM. O IAIDQ-International Association for Information and Data Quality, organizadora do evento de Baltimore, relativizou, via seu vice-presidente, a  maior abrangência da Dama-Dama Management Association no cenário americano, se posicionando com uma visão de Qualidade acima dos conceitos de Governança e Gestão de dados do DMBOK. Na visão Dama, a Qualidade de dados é um dos corpos de conhecimentos ou capítulos, enquanto que para o IAIDQ o conceito de qualidade de dados é o grande núcleo, em torno do qual os outros gravitam . São pontos de vistas diferentes, desenvolvidos por organizações diferentes, com certa faixa de rivalidade, inclusive. A IAIDQ está associada com a ECCMA-Eletronic Commerce Code Management Association, organização que atua fortemente na definição de padrões de dados industriais. Tem o maior dicionário técnico aberto  baseado na ISO 22745, do mundo, e desenvolve projetos para entidades do governo americano e em outras partes do laneta(Arábia Saudita, por exemplo). Participa fortemente também da definição da ISO-8000, focada exclusivamente em qualidade e gestão de dados. A chegada desta Norma (ISO-8000), voltada para dados, mostra de forma inequívoca, que os dados não mais poderão ser considerados meros coadjuvantes do  ecossistema organizacional. Também percebi, nas conversas  de intervalo, um ponto que havia me escapado. Quando a primeira versão draft do DMM(Data Management Maturity Model), do CMMI Institute  foi lançado, eu tive acesso, fiz um estudo e até está publicado aqui no Blog. Naquela  versão havia o forte patrocínio do EDM-Enterprise Data Management Council, uma organização influente que congrega as ações de TI no ambiente bancário americano. Quando saiu o modelo para a revisão final, do qual eu, Antônio Braga e Mário Faria, fizemos parte como revisores (os 3 únicos brasileiros), essa organização já não estava mais presente. Agora, nos EUA, ouço que o EDM Council está lançando o seu próprio modelo de capacidade. É o DCAM-Data Capability Assessment Model, com a participação dos fortes  “data practitioners” do mundo financeiro. Tive acesso ao modelo e já estou estudando. No futuro falamos sobre ele.
Resumo: Os americanos, apesar de terem uma grande produção de conhecimentos na área de dados, por vezes me sugerem viverem em ilhas conceituais, sem pontes óbvias a conectá-las. No painel final do evento, em Baltimore, notava-se claramente as indagações da plateia sobre os novos caminhos de dados, a situação futura da qualidade e da governança, mas nada era dito sobre a possível convergência e aproximação de associações(como Dama, IAIDQ, CMMI-Institute, EDM, etc), que buscam alcançar os mesmos objetivos com propostas complementares. É a velha dificuldade de somar para crescer, quando o “verde do dólar a faturar” , fala mais alto do que  as possibilidades de união de esforços.. É America, como me disse John Ladley, mas  isso também acontece no Brasil, com interesses menores, por vezes, guiando definições que criam fraturas , onde deveria haver consolidação.

#06-E por falar nisso, tem a “ruptura” entre o ICCP e a DAMA. Por uma coincidência, neste período, recebi duas comunicações formais sobre o rompimento do ICCP(Institute for the Certification of Computing Professionals) com a Dama(Data Management Association). Uma de cada organização. O ICCP era a instituição designada e autorizada pela Dama-Data Management Association, para a realização das provas de certificação de profissionais de dados. Houve uma “quebra”  de confiança entre as duas instituições e elas se separaram. Os profissionais certificados(eu e mais alguns no Brasil), terão as suas certificações preservadas até o momento da recertificação, tendo garantido os seus direitos. Para tal, a Dama, que agora será responsável pelos seus processos de certificação CDMP, emitirá os novos certificados, sem a chancela do ICCP. Por seu lado, o ICCP, inaugurará sua própria linha de certificações (CDP), com algumas atualizações, inserindo assuntos inexistentes no modelo anterior(como a especialização em Data Science, por exemplo).

A manifestação oficial da Dama, acerca do rompimento está no link abaixo:

A manifestação oficial do ICCP está no conteúdo abaixo, enviado por email:


Dear ICCP members,

The ICCP Board of Directors at its August 2015 meeting approved the following:

A. Removal of DAMA International from its Board due to bad faith negotiations by its leadership. 
B. An update to the CDMPtm program that ICCP has been offering since 2004. 

The Data industry has changed rapidly in the past few years with greater specializations, so a renewal became necessary.

That program will now be more simply offered as Certified Data Professional (CDP). The following  Specializations are offered and a new certificate will be mailed to each holder that qualifies.

CDP - Business Analytics 
CDP - Data Governance
CDP - Data and Information Quality
CDP - Data Integration 
CDP - Data Management
CDP - Data Modeling (Data Development)
CDP - Data Science
CDP - Data Stewardship
CDP - Data Warehousing
CDP - Database Administration (Data Operations)
CDP - Information Management

Depending on which specialty examinations were taken by you, ICCP will be issuing you your new certificate.

ICCP is committed to serving the best interests of business, data and computer professionals.

If you have any questions please do not hesitate to contact the ICCP office.


Sincerely,
Ken Metcalfe,, I.S.P., ITCP, CCP 
President, ICCP



segunda-feira, 9 de novembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-03


Eventos: MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  no seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.


Baseado na participação dos eventos acima, comento,  na forma de pequenas notas(drops), o estágio percebido dos conceitos de Governança de Dados, gestão de dados, MDM,etc. Serão aproximadamente 9 posts semanais...Enjoy...

#04-Governança em Big Data. Esse assunto foi também um dos mais discutidos e ganha temperatura nos EUA. No Brasil, onde o conceito de Governança de dados ainda está morno, a especialização em Big Data deverá demorar um pouquinho mais. De forma geral, há nos EUA,  um questionamento sobre a diferença entre governar “Big data” e governar “normal” data. Há correntes com pensamentos divergentes, uns advogando a corrente da Governança mais tradicional e outros clamando que há diferenças a observar. Os dois estão certos, na minha visão. Segundo Sunil Soares, autoridade reconhecida no assunto nos EUA, autor de 3 livros na área, no final do dia governança é governança. Entretanto, o universo dos chamados Big data sugere  alguns pontos de observação, que indicam certos ajustes na tradicional forma de se governar big data quando comparado  com os normais(normal data). As condicionantes ditadas pelos 3 V´s tradicionais do conceito(Volume, Velocidade, Variedade/Variabilidade) e mais a Veracidade(Qualidade) sugerem alguns pontos que farão diferenças em alguns dos P´s da GD(Políticas, Processos, Padrões,etc).  Claramente o volume de dados deverá suscitar pontos de observação com relação ao armazenamento, arquivamento e retenção, dependendo dos casos, motivando políticas e processos que poderão variar. A velocidade também dependerá das aplicações em questão. Ou seja, caso isso não seja uma preocupação prioritária no “normal Data”, certamente será no Big data. A velocidade de dados  produzidos por um sistema como os de medidores inteligentes de energia elétrica, por exemplo, será diferente da velocidade com que esses dados chegam aos sistemas tradicionais de leitura manual de medidores. Nos “smart meters”  as leituras são produzidas a cada 15 minutos, por exemplo. Esse processamento quase em tempo real, característico de big data, exigirá reflexões da GD e da DM(Lembre-se que GD+DM formam a camada gerencial de dados das empresas). Isso também será motivo de preocupação nos sistemas de dados “in-stream”, que chegam aos kbytes por minutos ou segundos, também próprio do ambiente  big data. Tudo dependerá dos objetivos, mas é bem provável que plataformas diferentes serão demandadas. Embora isso seja tecnicamente algo da esfera de DM(Data Management) e não diretamente da GD(Data Governance), elas acabam se encontrando em Políticas, Padrões, Processos,etc, na interseção das duas. Muito provavelmente novos segmentos de tecnologias com plataformas diferentes como Hadoop-like, No-SQLlike, Processamento in-memory, Appliances como Netezza e TeraData merecerão focos diferentes da GD+DM. A variedade, claro, implica repensar a GD, pois interfere no 4º  V, que é a Veracidade(sinônimo de Qualidade) . Os dados não estruturados como fotos, twitters, posts, sinais, etc não estão diretamente na linha tradicional  da disciplina de Qualidade de dados. Diferentemente de campos de tabelas no mundo relacional, os conteúdos não estruturados não passam ainda pelos  algoritmos  filtradores de profiling e cleansing   das ferramentas de QD. Essas ferramentas ainda não leem os stores NOSQL, com suas estruturas complexas. Além disso, a aplicação dos conceitos tradicionais de dimensões de qualidade(consistência, acurácia, integridade,precisão,etc) não serão tão linearmente aplicados nos campos não estruturados. Avaliar a consistência de um post de FB, por exemplo, exigirá algoritmos especializados para se interpretar ironia, duplo sentido, etc. Técnicas de  machine learning/NPL-Natural Programming language, por exemplo, estão sendo desenvolvidas em áreas como  “sentiment analysis”, ainda em fase de maturação, que caminham nessa direção. Assim, o conceito de qualidade de dados e suas dimensões tradicionais deverão ser revistos à luz da Governança de Big Data, quando falarmos de dados não estruturados. Há inclusive, conceitos acadêmicos, quase filosóficos,  que apregoam que os Big Data não merecerão os mesmos cuidados de qualidade dos “normal data”, pelo fato de que os erros se diluiriam na imensidão dos seus petabytes. Sei lá... Dessa forma Políticas, Padrões, Processos, Plataformas,etc deverão ser devidamente reavaliadas no cone dos conceitos de Governança de  “Big”  dados.  No mais, os aspectos de artefatos de Big Data, como arquivos críticos, seus campos, modelos analíticos, regras de negócios, etc também deverão ser considerados. As principais disciplinas(muitas derivadas do “normal data”)  no contexto de GD para Big Data passarão por : Inventário de dados, propriedade dos dados (ownership/membership), gerência de metadados, gerência de qualidade de dados(aqui feitas as considerações acima), segurança da informação, integração de dados (não-estruturados) com  dados mestres e de referência e analytics e relatórios. O P de Plataforma(dos vários P´s da GD), poderá passar por embarques em  Hadoop, Bancos NOSQL e Processamento in-streaming, Appliances, tratamento in-memory, com abordagens estruturais lógicas e físicas diferentes das hoje praticadas. Os aspectos sobre definição “schemaless” dos BD NO-SQL, suas estruturas complexas como grafos, listas dentro de listas, etc trará reflexões na documentação dos modelos de dados, parte do capítulo de arquitetura dos dados. As facilidades da normalização, os modelos relacionais tradicionais , a criação de schemas de bancos de dados antes da sua carga, tudo isso deverá ser reconsiderado à luz dos novos “stores” de dados do ambiente Big data.
No slideshare, publiquei recentemente dois trabalhos que falam sobre algumas dessas particularidades. O primeiro “Big Data e a Governança de dados”,  pode ser acessado em
O outro, “Big Data e Governança de dados, via DMM-Data Management Maturity Model”, pode ser acessado via

Continuaremos com o tema, em breve, com novas discussões e publicações. Em 2016, desenvolveremos na Fumsoft, um conjunto de cafés empresariais, com o lema “DataTalk”, nos quais discutiremos com especialistas, todos os aspectos de dados, nesse novo momento. Waiting 4 u.

segunda-feira, 2 de novembro de 2015

O estado atual da Governança e Gestão de dados nos EUA-02

Eventos: MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  no seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.

Baseado na participação dos eventos acima, comento,  na forma de pequenas notas(drops), o estágio percebido dos conceitos de Governança de Dados, gestão de dados, MDM,etc. Serão aproximadamente 9 posts semanais...Enjoy...


#02-Nova CID-10. O dia 30 de Setembro agora, foi uma espécie de mini-bug do milênio nos EUA, notadamente para a área de sistemas de saúde. No dia 01/10/15 passou a vigorar a CID-10, código internacional de doenças, versão 10. Isso significa que os códigos de doenças registrados/anotados em todos os atendimentos médicos do sistema de lá (leia-se ObamaCare), deverão apontar com correção o código (da doença/incidente/acidente) a que se refere aquele atendimento. Caso contrário, as seguradoras, que pagam as operadoras de saúde, poderão recusar o pagamento. E por que isso tudo? Simples. O código de doença é um dos exemplos clássicos de Dados de Referência, que juntamente com os Dados Mestres(pacientes, prestadores, hospitais, etc) e dados transacionais(consultas, internações, exames) formam o “core” do conceito de MDM(Master data Management), num ambiente de Health Care(Saúde). Desnecessário dizer que as empresas que estão com os dados melhor governados, foram as que melhor e mais rapidamente se prepararam para essa mudança. As outras deverão enfrentar cancelamentos de pagamentos por códigos inexistentes ou desatualizados. O CID-9 lançado em 1970,  continha 14.000 códigos para diagnósticos e quase 4.000 para procedimentos. O CID-10, lançado agora,  tem 68.000 para diagnóstico e 72.000 para procedimentos, aumentando em muito o espaço do conhecimento. Em tempo, o CID-10 é tão detalhado que agora num atendimento de fratura de fêmur, por exemplo, além da definição óbvia de em qual perna aconteceu, também o terço do osso, onde se deu a fratura, será caracterizado por um código diferente. E se você foi mordido por uma baleia, acredite,   o código é (W56.21XA). Também se você estiver envolvido num acidente com espaçonave de qualquer tipo, o código será (V95.40XA). E caso você seja atacado por um peru(turkey), o código será W61.42XD. Governe os seus dados....

#03-Glossário de negócios: Cresce gradativamente a discussão sobre a necessidade das empresas de terem um glossário de negócios. Nada a ver com os  antigos dicionários de dados encontrados em ferramentas como SGBD, Modeladores de dados,etc. Esses mecanismos antigos, encontrados nos SGBD, normalmente estão no plano físico, registrando os dados já na fase de “inquilinos”  de tabelas relacionais, ou quando muito, de alguns modelos em certo grau de abstração, como lógicos e conceituais (minoria). Aqui estamos tratando de registro das  informações, na forma de glossário, de tal sorte que permita uma profunda visão, entendimento e definição das áreas de negócios sobre aquele ativo específico. Por exemplo, a definição de Cliente, no contexto de uma multinacional certamente passa por várias visões que deverão ser consolidadas nesse ambiente de Glossário de negócios. O modelo DMM-Data Management Maturity Model trouxe na sua versão  de 2014-08, uma PA(Área de Processo) totalmente dedicada  a esse conceito(Business Glossary, dentro da Categoria Data Governance). A criação de um glossário de negócios tem ligações com a Gerência de Conhecimentos, na medida em que estabelece, de forma organizacional, uma definição central  daquele conceito, permitindo a sua difusão e uso de forma coerente e consistente por todas as áreas. Em algumas áreas de domínios, como Seguros, esses termos são melhor controlados. Em outras áreas, como Saúde, há uma chance de definições extremamente variadas, dependendo dos agentes participantes, como médicos, hospitais, auxiliares, etc. Veja post anterior sobre a CID-10.  Com a introdução dos complexos procedimentos do chamado ObamaCare(Ato que regulamenta os serviços de atendimento de saúde nos USA), esse ponto tem sido muito discutido. Uma abordagem para a definição de um glossário de negócios, passa por alguns pontos básicos: Primeiramente há que se conhecer os dados da empresa, ou daquele domínio em estudo, foco do projeto. Conhecer significa saber quem são os principais usuários(potenciais owners), entender a sua sensibilidade, criticidade e o significado daqueles dados. Identificar  os papéis que já estão envolvidos com o conceito, fazendo uma espécie de “stewardship” velada. Os modelos de dados(caso haja) são as primeiras fontes, juntamente com outros registros e documentos de sistemas existentes. O segundo ponto é observar as oportunidades que possam alavancar esse projeto de construção do Glossário. Apoio  da alta gestão e retorno previsto  são palavras chaves aqui. Lembre-se que os metadados são uma espécie de patinho feio da Gestão de dados.  Dessa forma, aspectos regulatórios de dados são sempre bons argumentos para se entendê-los com profundidade e criar vetores para a sua criação. Problemas organizacionais causados por “bad data” são também convidativos. Em terceiro, é fundamental ter boa comunicação acerca desse projeto. Aliás, todos os projetos, dentro de um programa de Gestão/Governança de dados, tem na comunicação,  aspectos fundamentais. Divulgue, publique, faça barulho. O Glossário de dados de negócios deve ser algo aberto, consumido e que traga retorno para a empresa. Em quarto lugar, comece o projeto, tenha um processo, mesmo que não um ferramental completo. No final do texto, falamos sobre ferramentas. E por último, faça medição do seu uso. O Glossário deverá se mostrar útil e consumido. Meça os acessos, por categoria, tipos de inconsistências, buscas, acertos, etc. A medição do seu uso, representa o acompanhamento vital da sua viabilidade. Ferramental. Bem, há várias ofertas de ferramentas sofisticadas no mercado. Normalmente são caras e algumas complexas. Não se impressione. A apresentação do Centro Médico Langone, da Universidade de Nova Yorque, neste último evento, de que participei, mostrou claramente o tamanho do desafio. Dados mestres e de referências, inconsistentes entre sistemas clínicos, organizacionais, de credenciamento e de pesquisa deram o tom do “porquê” do seu projeto. Os dados nesses domínios, segundo a apresentação, tem forte entropia, com cada sistema tendo a sua visão particular dos dados. A sugestão é começar devagar e com simplicidade. Planilhas(dependentes de volumes de termos, podem ser usadas), Ferramentas free para Repositório  ou ferramentas de “issue”, como RedMine, por exemplo, podem ser uma solução barata pra se começar. O fundamental é começar pelos dados “core” da empresa, aqueles mais sensíveis e susceptíveis a aspectos de “compliance e regulações”. Ferramentas mais caras e poderosas, como Colibra e ASG-Rochade, por exemplo deverão ficar para depois de uma percepção firmada, de que o assunto ganhou pauta e há perspectiva de ganho  palpável para o uso  dos dados pelas áreas de  negócios.  O mais importante é sentir a utilidade deste tipo de controle e convencer a alta gestão do seu retorno, sempre começando pela pergunta fundamental, um dos 5 W: Why? 

sábado, 24 de outubro de 2015

O estado atual da Governança e Gestão de dados nos EUA-01


Eventos: MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  no seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.

Baseado na participação dos eventos acima, comento,  na forma de pequenas notas(drops), o estágio percebido dos conceitos de Governança de Dados, gestão de dados, MDM,etc. Serão aproximadamente 9 posts quinzenais/semanais...Enjoy...

#01-Governança de dados: Cresce significativamente a importância do conceito de Governança de dados, na medida em que as empresas percebem o volume exponencial desse(considerado novo) ativo organizacional. A tecnologia MDM (Gerência de Dados Mestres), um dos focos principais do evento de NYC, com sua primeira geração centrada nos dados de clientes (CDI-Customer Data Integration), percebe que de nada adiantará o investimento em novas plataformas, caso os dados não estejam devidamente “governados”. E por governados, não se entende mais somente a remoção física de duplicatas, ou resolução de conflitos de hierarquias, problemas clássicos deste domínio. Também torna-se fundamental  a necessidade de definição dos papéis de gestores de dados(data stewards) e de responsáveis por dados (data owners), que se transformarão em referências responsáveis (accountability) por aquele ativo específico, dentro do contexto organizacional. Tudo orientado por políticas, padrões, processos, etc definidos e aprovados por estruturas de governança. Já surgem observações sobre formas de Governança de Dados, variando de uma postura mais passiva até uma mais proativa. A diferença fundamental são os fatores indutores. Uma abordagem mais passiva , na realidade, espera por fatores reativos, como um problema de “compliance” ou regulação,  ou uma grande fonte de erros em dados, por exemplo, com impactos em reputação ou perdas financeiras. Já a Governança mais proativa, tem as bases fincadas em estratégias de negócios que definem estratégias de dados e que originam a definição de um programa organizacional, com ampla base de apoio da alta gerência  e alto comprometimento dos stakeholders. Em ambos os casos, as métricas serão demandadas, porém na Proativa, esse processo (MED) se torna mais importante na medida em que surge para produzir indicadores sobre o andamento do programa e dos resultados alcançados. A resolução de problemas associados a Dados Mestres, com projetos de MDM é uma dos grandes elementos indutores da GD. Os conceitos de  CDI(Clientes e seus relacionamentos ),PIM(Product Information Managemen-Produtos, Fornecedores e preços,etc),RDM(Reference Data Management-dados de referências, como CEP,CID, unidades de medida, de moedas,etc) são subclassificações desses projetos e representam uma grande oportunidade para o nascimento do programa de GD, pois tratam dados fundamentais do business da empresa.  

A apresentação da gerente de Governança de Dados da GM, Maggie Hubble, ilustrou a necessidade da empresa, gigante da área automobilística, de definir um programa global chamado CDG-Customer Data Governance, com o objetivo de botar ordem nos dados de clientes da empresa, até então com sérios problemas de qualidade e confiabilidade. A entrada do novo CIO, em 2012, que mereceu até  capa de revista na imprensa americana, deu início a esse movimento de melhor gerenciar os dados de Clientes, criando uma Governança focada nesse tipo de ativo, com a estratégia de ampliar, futuramente, em direção também aos outros tipos de dados mestres(produtos, locais,etc). A abertura do evento , feito por Aaron Zornes, Chief Research Officer, do MDM Institute, deu o tom dessa ideia: “During 2015 and 2016, Global 5000 companies will increasingly mandate: No MDM without DG framework. Ou seja, antes de se falar em MDM, pense em governar seus dados...

sábado, 17 de outubro de 2015

O estado atual da Governança e Gestão de dados nos EUA-00


Nos próximos dias, começaremos uma série de posts, comentando os 2 eventos  abaixo: 

MDM and Data Governance Summit, ocorrido entre 04-06 de Outubro de 2015, em Nova York e  o seminário da IAIDQ-International Association for Information and Data Quality, ocorrido em Baltimore, entre 12 e 14 de Outubro de 2015.


sábado, 15 de agosto de 2015

Falecimento de Patricia Cupoli-DAMA Internacional



Uma triste notícia surpreendeu a todos no último DMCLatam, em SP, ocorrido entre 13 e 14 de Agosto. O falecimento, nos EUA, de Patrícia Cupoli, em 28 de Julho. Nos dois últimos anos, estive com ela no DMCLatam. Ela era quem aplicava as provas de certificação de dados do CDMP-DMBOK, às quais eu e Fernanda Farinelli nos submetemos. No último EDW, em Washington-DC, em Abril, também conversamos sobre o DMBOK2, a ser lançado até o final do ano, do qual também participo como revisor. Figura quase lendária da DAMA Internacional, Pat Cupoli deixará um vazio na área de Gestão de Dados. RIP.

http://www.tjpfuneralhome.com/obituaries/Patricia-Cupoli/#!/Obituary   

domingo, 2 de agosto de 2015

UAAI-Uma Abordagem de Aprendizado Interativo



Material postado no slideshare, com o PPT  sobre uma abordagem interativa, baseada nos conceitos de aprendizado emergente, visual thinking, 5W 2H e adaptação para o mineirês.

http://pt.slideshare.net/CarlosVBPalestino/pensamento-visual-uaai-learningv03

quinta-feira, 23 de julho de 2015

Governança de Dados, Big Data e DMM


Mais uma postagem sobre o tema Governança de dados com Big Data. A ideia é analisar o contexto dessas duas tendências, à luz dos modelos DMBOK e DMM. Postei, agorinha,  no slideshare, outro PPT contendo considerações sobre Big Data, Governança de Dados e DMM-Data Management Maturity Model. Esses conceitos serão estendidos quando analisados aqui. Por ora, veja os slides em :

 https://t.co/ke1bl96fZR

Boas discussões!

domingo, 12 de julho de 2015

Governança de Dados e Big Data


Começaremos uma série de posts sobre o tema de Governança de dados com Big Data. A ideia é analisar o contexto dessas duas tendências, à luz dos modelos DMBOK e DMM. Postei no slideshare, um PPT contendo as visões iniciais, que serão estendidas quando analisadas aqui. Por ora, veja os slides em :

http://pt.slideshare.net/CarlosVBPalestino/governana-de-dados-e-big-data-50448359

Boas discussões!


sexta-feira, 1 de maio de 2015

Curso de Governança e Gestão de Dados na Petrobras-Carlos Barbieri


Foi realizado, nos últimos dias 27,28 e 29 de Abril, na Petrobras, RJ, o curso Governança(GD) e Gestão de Dados(DM). O curso foi dado pelo consultor  Carlos Barbieri da Fumsoft-Sociedade Mineira de Software e contou com a participação de 20 técnicos da área de TI e de Negócios(Gestores de Dados). No curso foram repassados os principais conceitos práticos de GD/DM de Dados, com foco em modelos consagrados como DMBOK(Dama-Data Management Association)  e DMM (Data Management Maturity Model, do CMMI Institute). No segundo dia, houve dinâmicas com quatro grupos formados, de áreas heterogêneas da empresa, quando os alunos aplicaram as técnicas de MGD-Canvas para Melhoria de Gestão de Dados-Governança de Dados, desenvolvido por Carlos Barbieri. Nessas dinâmicas, os técnicos da empresa desenvolveram  a abordagem de discussão conjunta e interativa entre grupos, baseada no Canvas-MGD e no Canvas-P´s da Governança de Dados. O tema pela manhã, abordou a solução de dados para uma empresa  do ramo de saúde e pela tarde, os técnicos aplicaram a mesma abordagem  para a discussão de um problema real de dados da Petrobras. Ao longo do curso, os grupos competiram com QUIZ-GD especialmente desenvolvido para a fixação dos conceitos de GD ministrados nas aulas. No último dia, os grupos vencedores do QUIZ  receberam prêmios e o treinamento se encerrou com um café especial para os participantes.

Abaixo algumas fotos:

                                   Grupos de Gestores de dados e técnicos praticando as dinâmicas com o Canvas-MGD




                                             Encerramento do curso com o café




Vista da sala de aula


Avaliação do Curso

Como o curso foi dado "in-company" foram omitidas as avaliações relacionadas com a organização interna do evento(responsabilidade da contratante), ficando expostas somente as avaliações relativas às responsabilidades da Fumsoft e do professor:


domingo, 5 de abril de 2015

Visita ao EDW-2015-Washington-DC

Introdução:

Neste início de primavera, sem o esperado “blossom” das cerejeiras, estivemos participando do EDW-2015-Enterprise Data World-2015, em Washington-DC, entre 29 de Março e 3 de Abril. Para quem não sabe, esse evento é considerado um dos maiores( se não o maior)  sobre o assunto de dados do planeta e reune pessoas do mundo inteiro, para discutir, por uma semana, os caminhos do gerenciamento dos dados e das informações. O evento é promovido pela DAMA Internacional, tendo à frente a empresa DataVersity e outros apoiadores e traz os grandes nomes desse campo de dados e informações. Lá encontrei John Zachman, pai do conceito de Arquitetura Corporativa, com quem participei da sessão CDOVision. Estive na palestra de Gwen Thomas(fundadora do DGI-Data Governance Institute), hoje trabalhando na área de dados do Banco Mundial. Estive também  no evento de Robert Seiner(antigo militante da área de dados), com seu novo livro Non-Invasive Data Governance. Seiner é famoso pela TDAN-The Data Administration Newsletter, talvez o mais antigo periódico sobre dados, escrito desde 1997. Também participei de uma sessão do “CDOVision”  com  John Ladley(autor de dois excelentes livros na área de Governança de dados: Making EIM work for Business  e Data Governance). Outros gurus da área também circulavam por lá: Peter Aiken, autor de  livros sobre CDO e Monetização da informação, David Plotkin(tem um excelente livro sobre Data Stewardship, que recomendo) e  Steve Hoberman(considerado mestre na área de Modelagem de dados, e que vendia seus livros, ao vivo e a cores, no 3º nível, downstairs).  David Loshin e Danette MacGilvray, também renomados autores na área de Qualidade de dados, fizeram sessões de que eu não participei.

Visão geral sobre o evento:
Extremamente bem organizado, com distribuição de material na forma digital e em papel para palestras com inscrição antecipada, o evento aconteceu no gigantesco  Grand Hyatt de Washington DC. O evento tem o claro sabor Dama-Data Management Association. É importante termos uma visão de como estão as diversas linhas “ideológicas”  sobre dados e informações nos EUA. A Dama-Data Management Association, é a mais antiga e tradicional organização, associada com a certificação CDMP, do ICCP. Há outra linhagem, que vem com o apoio da IAIDQ-International Association for Information and Data Quality, que tem seus seminários e certificações próprias(IQCP).  Há outros consultores e competidores  que atuam de forma mais individualizada  e espalhados como o MIT (TDQM Program), com Richard Wang, forte na linha de Data Quality, assim como Larry English(Technology Transfer). De certa forma, observa-se a Dama com uma visão mais integrada, contemplando vários corpos de conhecimentos de DM(Data management) e os outros com forte foco em Qualidade de Dados, um dos corpos de conhecimento da Dama. A esse ring de opções, acaba de chegar o CMMI Institute, com o lançamento do DMM-Data Management Maturity Model, que vem com a força do seu coirmão CMMI e tem foco mais voltado para os aspectos de maturidade, item em que os outros (modelos, linhagens) não se dedicam totalmente. Na semana anterior ao EDW-2015, também em Washington-DC, fiz o curso de Introdução ao DMM, no CMMI Institute. A Fumsoft e a Crest Consulting são as duas primeiras instituições brasileiras a se tornarem DMM Partner, nesse programa.  Nesse evento do EDW-2015 houve 3 participações do CMMI Institute(DMM), sendo dois casos de implementação e uma  palestra em conjunto com Peter Aiken(da Dataversity e  ex-presidente da Dama).
O evento teve uma  Feira de exibidores, com os principais fornecedores de produtos na área de dados, com destaque para as ferramentas Collibra e Rochade, já com presenças no Brasil, segundo me informaram os representantes, além da já tradicional sessão de provas CDMP, feitas pelo ICCP, durante o evento. 
Do Brasil, estiveram  presentes também: Rossano Tavares(Presidente da Dama Brasil), Manoel Lopes(Diretor da Dama Brasil), Gustavo Barbato(analista da FIESC), Ronaldo Sachetto(Diretor de dados da Boa Vista Serviços), Evandro Silva(Engenheiro  químico da Petrobrás),Sérgio Zaccarelli(SAS Institute) e Flávio Reis(Gerente de Arquitetura da Telefônica).

Palestras assistidas:

1)Eight steps to a successful Data Governance Program, com Ann Marie Smith, da Alabama Yankee Systems, e membro da DAMA International:

Resumo: Palestra/curso com 3 horas, ministrada por Anne Marie Smith, consultora do time  experiente da linha Dama. O curso mostrou os principais aspectos que uma empresa deve seguir na adoção dos conceitos de GD(Governança de Dados). Os conceitos de GD já estão muito bem consolidados nos EUA, com as empresas, de forma geral, já tendo adotado a visão estratégica de Data Management, percebendo a importância de uma estrutura organizacional própria para cuidar dos seus dados. No Brasil, essa consciência ainda é absolutamente pontual e tímida, o que tornou a palestra um bom receituário para esse caminho. Os pontos mencionados pela autora, são os básicos e já estão na linha de ação dos consultores experientes em GD no Brasil, que hoje executam os primeiros trabalhos nas empresas. O curso foi excelente, com a apresentadora demonstrando domínio do assunto, mas teve um pequeno problema, ao seu final, quando lhe perguntei  a sua opinião sobre o DMM(Data Management Maturity Model), modelo do CMMI Institute, com forte foco em avaliação(assessment). A recusa em me responder a pergunta, numa atitude até inesperada   para uma plateia de mais de 200 pessoas (considerando a minha questão como “out of context”), me deu a clara impressão de que essas duas linhas “ideológicas”  sobre ações de dados nos EUA(Dama e DMM), ainda necessitam de certa maturidade para entender que são propostas complementares e não competidoras e que caberá às empresas a melhor definição de suas opções. Nesse caso, não deveria haver nenhum constrangimento, na medida em que o DMBOK(Dama), continua como a grande referência na área de dados nos EUA( e com capítulos no mundo) e com forte aplicação prática. Tem um corpo de “practitioners” de alto calibre e comanda o DMBOK, o respeitável corpo de conhecimentos sobre Data management, equivalente ao PMBOK.  Com o lançamento do DMBOK2, segundo Pat Cupolli, com quem conversei, previsto ainda para esse ano, o framework será complementado com processos de avaliação, o que nunca foi o seu forte,  e  irá preencher uma lacuna importante na sua estrutura. Já o DMM, virá com essa marca de nascença(avaliação), fruto do genoma do seu coirmão, o CMMI, modelo de maturidade consagrado no mundo todo, nas áreas de processos de software, com milhares de certificações. Por outro lado, o CMMI nunca foi  fortemente focado em implementações, tendo algumas empresas se utilizado, por aqui, do modelo MPS.BR, como eixo de implementação e realizada a avaliação CMMI, na busca de uma referência internacional. Essa  equação simples, mostra que os dois modelos terão encaixe  quase perfeito e não há (e nem seria bom que houvesse) disputas paroquiais de espaços, com prevalência de interesses  comerciais particulares, em detrimento da melhoria das opções de qualidade de dados para as empresas, seja na implementação, seja na avaliação de sua maturidade. A Fumsoft continua com sua missão de divulgar e atuar apoiando as empresas no modelo DMBOK, como eixo de consultoria, o que tem sido feito há anos e continuará firme nesta direção. A Fumsoft , com seus consultores de dados, possui o maior número de certificações CDMP (Prova de certificação mais provas de especialização) do Brasil. Por outro lado, a Fumsoft também se tornou uma DMM Partner, acreditando na força do modelo do CMMI Institute, no espaço de avaliações formais de maturidade de dados, espaço ainda não preenchido totalmente pelo DMBOK.. A figura abaixo mostra Carlos Barbieri(Fumsoft) e Melanie Mecca(CMMI Institute, responsável pelo Programa DMM), no EDW-2015.

2)Developing and implementing Policies and Standards to manage data as an enterprise asset, proferido por Janet Linchtenberger, responsável pela área de dados da Walgreens
Resumo: O trabalho mostrou a complexidade de uma empresa com o porte da Walgreens. A então gigante da área farmacêutica, sofreu um “merge” no final de 2014, o que aumentou a complexidade da sua Governança de dados. A empresa hoje tem mais de 370.000 funcionários, e 12800 lojas  em 11 países. A definição de Políticas e Padrões(2 dos P´s da GD, discutidos neste Blog) são definidas em função dos objetivos da empresa e da criticidade dos dados usados no seu business: dados de pacientes(compradores), de medicamentos, de doenças, etc que sugerem “compliances” rigorosas. A empresa apresenta gestores de dados por domínios(Drogas, Pagadores, Clientes, Fornecedores, Locais,etc) e também os Gestores de dados nas áreas de negócios que são os responsáveis pela aplicação de políticas e padrões nas suas respectivas áreas de influência . Essas áreas estão  representadas/subordinadas (no) ao Comitê de Governança de Dados, que por sua vez se vincula ao Comitê Executivo de Governança de Dados organizacional. Uma recomendação prática e simples definida, que merece observação, segundo Linchtenberger: Não definir Políticas e Padrões , além do necessário. Considere transferir os mesmos “recados” através de outros meios, como treinamento, coaching, charters,etc. Os aspectos de complexidade de Políticas são tão grandes na empresa, que o Comitê de GD, tem um subcomitê só para tratar das políticas. Nesse subcomitê há pessoas da área Jurídica, de Riscos, de Compliance, de Privacidade,etc. Há considerações sobre o rigor das Políticas definidas, que poderão variar de “recomendação”  a “obrigação”, com graduações entre os dois polos. As Políticas que versam sobre aspectos regulatórios deverão ser obrigatórias e organizacionais. No resumo, a palestra mostrou que , dependendo da empresa, do seu tamanho e do seu business, os dados deverão ser submetidos , cada vez mais, de forma cuidadosa às Políticas e Padrões, bem definidos e controlados na sua aplicação, sob a estrita observância da Governança de Dados.  

3)Progresssive topics in Data Governance, Big Data , Agile e IOT(Internet das coisas), com Robert Seiner , da KIK
Resumo: Foi uma das melhores palestras do Seminário, na minha opinião. Robert Seiner é um velho militante da área de dados. Publica o TDAN(The Data Administration News Letter) e recentemente lançou o livro Non-invasive data Governance., que já li e recomendo O conceito apregoado por Seiner, com o label “non-invasive” é que os dados hoje, de alguma forma, já estão nas mãos de “gestores”, pessoas que não tem propriamente esse nome ou papel, embora exerçam algum tipo de “gestão” sobre eles. A sua ideia é que a empresa, na implementação de GD, deverá cuidadosamente analisar essas pessoas que já estão envolvidas na gestão dos dados(embora sem esse nome) e tentar aproveita-las, com o devido polimento de GD, dai o conceito de “não-invasivo”. São os chamados SME(Subject matter experts) Isso, segundo ele, trará uma GD mais suave, e menos desruptiva e traumática. Aliado a isso, defende que a governança deve ser sobre as pessoas que tratam dos dados e não sobre os dados propriamente. A ideia central é a governança é sobre o comportamento das pessoas que tratam dos dados e esse comportamento é que deve ser cuidadosamente observado. Essa foi a introdução da sua palestra. A essência dela, entretanto, era tocar em temas que ainda estão se aproximando da esfera de GD, como Big data, Agile e IOT(Internet das coisas). Para os conceitos de Big Data, Seiner advoga que não existe necessidade de uma GD especializada. Vale a mesma GD aplicada para “Normal” Data, ou “Small”  Data, independentemente dos 5V do Big data. A consideração que fiz foi que, no caso de Big Data, há nuances de plataformas e arquiteturas, que poderão chegar à GD, para definições, políticas e padrões. Por exemplo, a necessidade de novas formas de armazenamento (Hadoop,MapReduce,NOSQL,etc) poderia ser uma consideração que a GD faria de forma diferenciada. Também os aspectos de tratamento em tempo (quase real) poderia ser outra “nuance” nesse casamento. Também  os aspectos de retenção de dados, pelo alto volume e velocidade de sua produção, talvez merecessem políticas diferenciadas, mas que no fundo são políticas, tais como as outras. Somente a temática diferenciada  seria considerada. No restante, a GD madura, poderia se ocupar dos conceitos emergentes de Big Data. Outro ponto colocado por Seiner foi o cruzamento de GD com os modelos ágeis. Os modelos ágeis, quando usados nos limites  de seu manifesto, tendem a considerar os dados com menor nível de preocupação. Eu diria que é o momento em que os dados voltam ao estágio de combustível de sistemas e não de ativos da empresa (visão minha). Há os conceitos de débitos técnicos que deixam a resolução de pendências para outros ciclos, onde os problemas de dados sempre se encaixam. A discussão, nessa matéria ficou , de certa forma, restrita á dualidade “fazer rápido” ou “fazer correto”, caindo na seara da eterna discussão que envolveu os modelos ágeis, desde a sua chegada. Não há um consenso definido para se abordar esse problema, que os americanos chamam de “conundrum”, ou seja um quebra-cabeça a ser desvendado. Uma possível estratégia, mostrada em outra apresentação (discutida mais a frente) foi a aplicação do chamado “Sprint zero”, ou seja um ciclo anterior aos sprints tradicionais de desenvolvimento, que seria dedicado à análise dos dados, à luz de modelagens conceituais, definições mais documentais, o que mitigaria esse problema e o aproximaria dos braços de controle da GD . De qualquer forma, isso expandiria o tempo do release, pois teríamos um Sprint a mais e o problema retorna novamente à dualidade “menos rápido e mais correto”. Por último, o autor tocou no aspecto da IOT(Internet das coisas), quando muitos milhões de devices estarão ligados entre si produzindo dados. A ideia da GD seria a mesma aplicada no Big Data, com a manutenção das mesmas premissas de governança, agora considerados aspectos de volume, variedade, velocidade, retenção, aliado aos aspectos, talvez mais críticos, já discutidos de privacidade, segurança,etc. A autor citou o exemplo da sua sogra, que está numa clínica para idosos, totalmente controlada remotamente por devices, que sinalizam a sua posição, seus movimentos, suspeita de quedas,etc. Esse assunto, já foi tratado por Sunil Soares num livro específico(Big Data Governance-an emerging imperative). Já li o livro de Sunil e o assunto é tratado de forma mais ou menos semelhante por Seiner. Sunil destaca os possíveis cuidados com a tal Big Data Governance, enquanto Seiner a considera irrelevante como subtipo da GD, podendo ser usada (quase) da mesma forma.

4)Palestra de abertura-KeyNote: Managing the data for decisions that affect the world, com Micheline Casey, do Federal Reserve Board(Banco Central dos EUA)
Resumo: A palestra tratou dos cuidados que o Banco Central dos EUA deve ter com os dados, na medida em que os trata visando produzir indicadores fundamentais que estabelecem pilares sobre a economia dos EUA e, de quebra, do mundo. Os dados servem para a definição de políticas monetárias públicas, a supervisão e a regulamentação de instituições bancárias, a detecção de instabilidades  e de riscos. Como não poderia ser diferente, o Banco Central Americano tem uma estrutura de CDO-Chief  Data Officer, comandado por Micheline Casey. Micheline, que esteve no DMCLATAM-2012,  foi a primeira  CDO “estatal” dos EUA, e é famosa na área de tratamento de dados públicos, tendo desenvolvido um extenso trabalho  no estado do Colorado, antes de ir para o Banco Central Americano(FRB). O tema central da palestra se concentrou na crescente complexidade dos dados e na necessidade de se definir estruturas para melhor absorvê-los e entendê-los. Isso sugeriu uma Estratégia de dados organizacional, com melhorias nas funções de GD e de DM(Data management).As consequentes mudanças culturais sugeriram contratações de perfis mais qualificados para esse tipo de tratamento. Dessa forma, o FRB estabeleceu uma estrutura de GD, com as camadas tradicionais contemplando os gestores de dados(data stewards), o Comitê de GD(com os Gestores de dados chefes) e um Conselho estratégico de dados(Board Data Council). As funções de DM que mereceram maior cuidado na estratégia foram: Gerência de Metadados, visando o significado dos dados que formam os indicadores, Segurança de Dados, pela criticidade do conteúdo, Qualidade de dados, pela necessidade de indicadores corretos e precisos, a Gerência de Dados de referência, a Gerência do ciclo de vida dos dados e a área de Analytics. Foram observados pontos que deveriam ser melhorados na ingestão de dados(captura e entrada), gerência de maior volume de dados não estruturados e melhoria da camada de analytics.

5)Sessões do CDOVision: Governance, Risk and Security; Innovation and Monetization; Organization and Structures.
As sessões chamadas CDOVision, foram feitas em local separado(dependências do Hotel Marriott, perto do Hyatt) , com foco na emergente dicotomia entre CDO x CIO. As sessões foram desenvolvidas durante um dia todo, com o formato conhecido hoje no Brasil, como Conhecimento emergente ou Learning 3.0.  No fundo, é a velha forma de se trazer temas para debates, com a presença de pessoas com certo domínio  inicial sobre um assunto(que ainda tem contornos indefinidos e verdades subjetivas). Conta também com a presença de um facilitador, que conduz, induz e atiça a platéia para as discussões, que produzirão mais conhecimentos, “insights”  ou frestas novas  sobre aquele conceito. Acresce-se a isso, pequenas palestras cronometradas de 10 minutos, feitas por convidados, sobre o tema. Numa delas, trouxeram duas CDO´s e um consultor(John Ladley). Essa abordagem faz parte da linha de aprendizado por Andragogia(ensino para adultos) e no Brasil são chamadas sessões de “shots” ou "meetups", que a Fumsoft introduziu em Minas Gerais, há 2 meses. O tema central foi sobre a emergência do CDO(não no sentido de urgência, mas de ser algo novo despontando/emergente  no cenário de GD e DM).  Foram discutidos, em separado, três temas: a)Governança, Risco e Segurança; b)Inovação e Monetização e c) Organização e estrutura. Todos os subtemas apresentados serviram de pretexto para induzir a discussão sobre a emergência da figura do CDO(Chief Data Officer) . A discussão foi rica, com a participação de figuras proeminentes como John Zachman, John Ladley, Peter Aiken e dezenas de CIO´s e CDO´s. A conclusão, a que chego,  é que nem mesmo os americanos tem uma equação pronta para definir se uma empresa  necessita de um CDO. Isso vai depender diretamente de alguns fatores:
a)Cultura e tipo de negócios da empresa, com a percepção de que empresas mais  regulamentadas estariam mais propensas a essa nova figura;
b)Empresas onde o “emagrecimento” gradual do CIO se torna visível, com o seu  deslocamento para outras áreas tecnológicas emergentes. Muitas empresas veem hoje o CIO muito mais como o responsável pela camada de tecnologia e não mais diretamente no envolvimento com o negócio, numa espécie de retorno ao começo(CPD dos anos 60/70). O foco seria  responsabilidade sobre a execução de sistemas e manutenção do "maquinário", hoje muito mais complexo e cheio de alternativas, como ERP´s, Cloud Computing, Virtualização, dados chegando em tempo real(ou quase ),etc. O aspecto negocial dos dados, cada vez mais critico, deve mudar de mãos, segundo alguns preceitos novos;
c)Empresas que, gradativamente, percebem o crescimento da importância dos dados, como um ativo e planejam uma dedicação gerencial especial e concentrada sobre eles, numa complementação ao fator b.
Hoje nos EUA há aproximadamente 200 CDO´s  e a presença deles no organograma varia. Alguns ainda estão sob o CIO (numa convivência harmoniosa), outros já se deslocaram para áreas críticas de negócios, onde os dados tornam-se fundamentais. Por exemplo, há CDO sob a Gerência de Operações da empresa, sob a gerência de Risco da empresa e há empresas com mais de um, dependendo de sua especificidade geográfica. Aqui , a figura do CDO começa a se aproximar dos gestores de dados de negócios, fazendo uma ligação forte entre a GD e os serviços de DM(Data management), sob a responsabilidade operacional dos CIO´s. Em resumo, entendo que no próximo evento, em San Diego, em Abril de 2016, esses contornos já estarão um pouco mais definidos, embora sem fórmulas genéricas prontas. Não conheço pesquisa sobre CDO no Brasil, mas a minha percepção é que não cheguemos ao número de 10 atualmente.  Abaixo duas fotos, mostrando a plateia do CDOVision, com destaque para o consultor John Ladley e Peter Aiken e na outra mostrando, ao fundo John Zachman, próximo da luminária.
6)Realizing an Enterprise Data Management Strategy and Architecture at Unum, com Edwinna Bice ae David Fanton, da área de dados da UNUM
Resumo: A empresa Unum, uma seguradora de presença mundial,  com forte presença nos EUA e no UK, se posiciona entre as 500 Fortunes (posição 272), com 9000 empregados e 20 milhões de segurados. Atua na área de seguros de vida, de incapacidade e de doenças críticas. A apresentação foi da sua estratégia corporativa de dados, depois de uma grande fusão, onde restaram milhares de sistemas legados, centenas de aplicações e múltiplos DW. O foco da estratégia foi direcionar a empresa para ser uma companhia “Data Driven”, com a criação de um framework que contemplava três pontos:  Visão, Gerência e Consumo de dados. Na “Visão”  se encaixava a estratégia de dados com a nova arquitetura e a Governança; na “Gerência” , as funções básicas de DM como aquisição,integração, virtualização,integridade, serviços de informação, etc,  e no Consumo (BI, relatórios, dashboards,analytics, análise preditiva,etc). Na área de Visão,  dentro do framework tecnológico, houve  a concentração em determinadas tecnologias, com o descarte de outras tantas. As prevalentes foram: IBM, Informática, Hadoop,Teradata, SAS e QlikView. A empresa fez uma opção não muito aplicada/comum  no Brasil, com a adoção de modelos prontos da indústria(no caso de seguros), como IBM, ACORD,etc. Também buscou  a adoção de modelos prontos para termos de negócios, modelos de dados, objetos de negócios,etc. Os modelos de projetos eram baseados no “core” adquirido com extensões de adaptação. Segundo a palestrante, isso permitiu o desenvolvimento de soluções mais rápidas e baratas. A percepção aqui é que isso talvez tenha sido totalmente viabilizado pela “homogeneidade” do negócio da empresa, concentrado em certos tipos de seguros, proporcionando a aquisição de modelos prontos e customizáveis.

7)Data Governance 2.0-Moving from tactical Data Governance to Strategic Data Governance for competitive advantage, com Michael Miller do HSBC
Resumo: O foco da palestra foi mostrar que chegamos ao momento de sair da fase da GD(Governança de Dados tática, que ele chama de GD1.0) para alcançarmos a GD Estratégica(GD 2.0). O apresentador, Arquiteto de Informação Global do HSBC, de início, falou que tudo o que seria dito, era em nome dele e não do banco. Ou seja, ele estava apresentando um conjunto de percepções pessoais que não necessariamente estavam sendo planejadas ou implementadas pelo HSBC. Isso acontece com as regras e políticas de certas organizações que não permitem que nada seja falado em seu nome, nem por gerentes altamente posicionados, como era o caso. O meu amigo Manoel Lopes, diretor da Dama-BR e ex gerente de dados do HSBC, confirmou essa política. A essência da palestra foi a concentração na necessidade de se colocar as digitais da alta direção, cada vez mais, na roda de direção da GD(o que ele chamou de GD 2.0). Segundo a sua premissa, a GD como praticada, ainda se concentra na camada tática, com Comitê de Gestores de dados e equivalentes(Escritório de dados,etc) e pouca coisa sobe para o Conselho, que faria as definições Estratégicas. Segundo ele, a GD está propulsionada pelos problemas de natureza de DM e não por visões estratégicas de negócios. São os problemas relacionados às obrigações de padrões de dados, às necessidades de consertos emergentes de dados que arranham os aspectos de compliance,etc que movem a GD de hoje, segundo ele. Os (gerentes de) projetos de sistemas , segundo o autor, não gostam de ouvir sobre GD, pois isso se traduziria em maior tempo e demora nos cronogramas. Com a perspectiva de catalizadores de produção de dados(IOT, Big data, maior regulamentação,etc) essas motivações de hoje deverão subir de escala para atiçar a camada estratégica.  Essa foi uma das boas palestras apresentadas, na minha opinião e o ponto a observar é que o HSBC tem seu HQ na Inglaterra e não nos EUA.  

8)The art of Data Story Telling, com Kimberly Nevala e Bree Baich, da SAS
Resumo: A apresentação se concentrou na nova tendência de “store telling”, mecanismo mais lúdico definido como a arte de montar uma narrativa arrebatadora em torno de dados(no caso), com o objetivo de melhorar as tomadas de decisão e produzir ações imediatas, pela compreensão instantânea. As técnicas centram na mesma base de mudança de linguagem para comunicação. Vem na esteira do pensamento visual(com desenhos e cartoons), ou novas trilhas de aprendizado como “shots”, “canvas”,etc. Há números mostrados que provam que estatísticas ditas numa apresentação tem o índice de retenção de 5%, enquanto as informações retidas por histórias contadas, tem 63% de fixação. Pela apresentação, uma história deve ser planejada em quatro etapas:
1)A primeira é basicona: Comece sempre pelo Why. Pense no porquê daquela mensagem, palestra, seus objetivos a alcançar, etc;
2)Desenhe algo que mostre a realidade atual, apontando direções e alguns obstáculos;
3) Mostre as possibilidades, com lados positivos e negativos;
4)Feche a apresentação, com links para o Why e ofereça algumas soluções para aqueles problemas apresentados em primeiro lugar.
Embora eu seja de outra geração, desde 1994, quando lancei o Livro Modelagem de Dados (IBPI-Press), eu já procurava essas formas de melhor retenção de conhecimento, e o desenho lúdico e brincalhão sempre foi uma delas. O livro foi construído para ensinar técnicas de modelagem de dados e possui uma série de desenhos(forma de cartoons), que desenvolvi, justamente para a fixação desses conceitos.  Isso está registrado no meu portfólio de desenhos, acessível no link abaixo:


Abaixo, segue um desenho que fiz para o Curso de Governança de Dados, para ilustrar uma dinâmica, cujo objetivo era pensar a gestão de dados no Museu de Inhotim(o maior museu de arte contemporânea da América Latina, localizado na grande BH).


9)Using Agile Data Governance Architecture to build the INC Research Enterprise Data Model, com Mark Ouska
Resumo: A apresentação, feita por Mark Ouska, da INC Research Enterprise foi muito interessante. A INC Research é uma empresa cujo negócio é realizar testes de remédios para a indústria farmacêutica. Tendo adotado o processo ágil para o desenvolvimento de software, há alguns anos, a empresa se ressentiu de também ajustar um desenvolvimento rápido de dados ao método Scrum tradicional, que usa sprints de 2 a 3 semanas. A proposta foi criar o que ele chamou de Sprint zero, com 2 a 3 dias(conceito já discutido em outra parte), realizado uma vez a cada duas semanas. Nesse Sprint, totalmente dedicado aos dados, uma equipe de dados participa  com membros da equipe ágil para a definição/consolidação da arquitetura de dados( modelos  conceituais de negócios, metadados, glossário de negócios alinhados e acordados entre equipes) necessários à gerência de dados, minimamente aderente aos preceitos de GD. Isso permitiu a criação de um cenário de dados com certo alinhamento entre os elementos de desenvolvimento. A estratégia do Sprint zero é na realidade uma reunião de JAD(velho JAD!!, dos anos 80/90 ), com a presença dos BME(especialistas em negócios) num encontro em grupo, direcionado para o consenso, com um facilitador neutro, ambiente controlado, instrumentalizado e orientado ao processo. Essa apresentação veio ao encontro da discussão levada na apresentação de Bob Seiner, que discutia o desafio de juntar Scrum com GD.

10) 9 Drawings every Data Worker should be able to whiteboard, com Gwen Thomas, do World Bank e do DGI
Resumo: Uma das palestras mais esperadas foi a de Gwen Thomas, com o tema “Nove (9) desenhos que qualquer “profissional de dados” deve fazer num quadro branco”. Com a sala totalmente lotada, com gente assistindo do lado de fora, pelas portas abertas, o estudo de caso apresentado pela criadora do DGI(Data Governance Institute) desapontou, na minha modesta opinião. Tentando se utilizar do estilo minimalista de desenhos  “kindergarten”(como ela própria definiu)  para mostrar desenvolvimento de soluções de dados, a grande diva da GD não foi feliz. Acabou produzindo uma apresentação rasa, tanto na forma como no conteúdo, frustrando a expectativa dos especialistas que esperavam  algo de maior substância, quanto mais não fosse, pela sua história em GD. Ficou devendo.

11)Case Study of DMM: Protecting your economy with Data Management, com Kenneth Lamar, do Federal Reserve Bank of New York e Melanie Mecca, do CMMI Institute
Resumo: A apresentação mostrou a aplicação do DMM como abordagem para uma avaliação inicial de maturidade  de dados, aplicado na área de Estatísticas do Federal Reserve Bank (FRB), de Nova Yorque. Melanie Mecca, responsável pelo programa DMM, com quem fiz o curso de DMM(Introduction), na semana anterior, dividiu a apresentação com Kenneth Lamar, responsável pela área. A apresentação serviu para introduzir o modelo DMM, lançado em Agosto de 2014 e que teve um desenvolvimento de 3,5 anos, com mais de 50 autores contribuintes, mais de 70 revisores e mais de 80 organizações envolvidas. O modelo contém 6 categorias e 25 áreas de processos. Foca mais no “o Quê” do que no “Como” e centra na percepção/avaliação de maturidade.  O modelo exigirá duas certificações profissionais: EDME(Enterprise Data management Expert) para avaliação inicial e start do programa e outra de DMM LA- Lead Appraiser(para realizar o benchmarking e monitorar as melhorias). Por outro lado, a área de estatística do FRB de NYC, tem a essência do seu trabalho concentrado em informações para produção de dados estatísticos. O Banco contribuiu para a definição do modelo DMM, desde a concepção, provendo considerações regulatórias e melhores práticas, desde 2011. O Banco foi submetido a um Assessment, que contribuiu para a detecção de gaps nas práticas de DM e viu no modelo um importante mecanismo para melhoria contínua.

12)Data Security Strategy, com Justin Lindsey, do FBI e Department of Justice
Resumo: A palestra, feita no fechamento do evento, trouxe um ar todo de “stand-up comedy”, desenvolvido por seu espetacular apresentador. Nada mais, nada menos do que responsável pelos dados do FBI, Justin Lindsey, com três diplomas do MTI(Engenharia, Computação e MBA em algo de que já me esqueci) soube circunscrever as óbvias limitações de “non-disclosure” do seu papel profissional, para palestrar com brilho. Com maestria, falou sobre o tema “Estratégia de segurança de dados (do FBI)”, de uma forma toda cheia de paródias, piadas e analogias , num verdadeiro show de encerramento, digno dos melhores comediantes “stand-up”. 

Conclusões:

Baseado no que ouvi, vi, conversei e inferi, observando o comportamento das empresas americanas, de maneira geral:
a)O Brasil está atrasado em Governança de dados, e o cenário econômico que se desenha está longe de sugerir melhoras. Pelo contrário, projetos de implementação de GD em empresas, que já estavam despertadas para a essência do problema, poderão sofrer atrasos significativos, num ambiente de retração econômica;
b)A Governança de Dados no Brasil, está sendo praticada de forma pontual, em empresas que possuem as seguintes motivações, nessa ordem de prioridade: empresas cujo “business” é dado; empresas cuja regulamentação sugere cuidados e riscos de penalizações significativas. Muito pouco;
c)A Governança de dados no Brasil, quando praticada, está mais para a GD 1.0,  motivada por problemas de natureza tática operacional, conforme apontado por  Michael Miller, do que a GD 2.0, com ampla motivação negocial/estratégica e apoio do alto “board”.
d)O sentimento sobre os dados no Brasil ainda é o de elemento “lubrificante” e/ou “combustível” de sistemas e não de uma ativo organizacional fundamental, cada vez mais precioso e fundamental de ser gerido por estruturas específicas e dedicadas;
e)Há uma percepção  clara nas empresas “start-up” brasileiras(e acho que isso é geral) de que os dados não devem ser problema no futuro, perdendo-se uma extraordinária chance de se começar sem grandes vícios sobre eles. Algo que chamei de uma "GD enxuta" poderia ser aplicada nesses contextos de start-ups;
f)Há movimentos de acertos de certas áreas de DM(Data management), como de integração(MDM), limpeza(profiling), cleansing e acertos de dados em grandes cadastros, mas isso isoladamente está longe de ser Governança de Dados. Entretanto, poderia ser um ótimo projeto trigger para o seu início e semeadura;
g)Os conceitos de Metadados e Glossário de negócios, já praticados nos EUA, com certa desenvoltura, ainda estão longe da realidade das empresas brasileiras;
h)Nos EUA, a GD após vencida essa etapa de adoção e conscientização organizacional da importância dos dados, espicha o binóculo em direção a novas trilhas: Internet das coisas, Big data e Agilidade. Em San Diego-2016, a gente vê como a coisas ficaram...