Home Blog Page 1470

Philips e Accenture firmam parceria no setor de saúde

A Philips, empresa global de inovação para saúde e bem-estar, anuncia parceria com a consultoria e provedora de serviços de TI Accenture durante a 22ª edição da Hospitalar, feira internacional de produtos, equipamentos, serviços e tecnologias para a área da saúde, que acontece em São Paulo neste mês de maio.

O acordo consiste na atuação da Accenture como canal de distribuição para revenda da licença do software Tasy, sistema de gestão hospitalar pioneiro no Brasil e desenvolvido pela Philips, além dos serviços para sua implantação e suporte em hospitais e instituições de saúde.

A parceria conta com o diferencial da Accenture em agregar um serviço de implantação de alto desempenho à sua expertise em projetos críticos e complexos, para oferecer maior segurança na entrega de resultados para o cliente final. Para Ana Luiza Oliveira, diretora de Vendas e Serviços da Philips, a parceria com a Accenture deve fortalecer ainda mais a presença do Tasy no Brasil.

“Nosso sistema já está disponível em mais de 700 hospitais brasileiros. Essa nova iniciativa deve aumentar esse alcance e a partir dela, será possível oferecer mais segurança para o paciente, além de cortar custos e melhorar o processo de implantação em hospitais, clínicas, centros de diagnóstico e instituições de saúde”, comenta a executiva.

Para Rene Parente, líder da área de Saúde da Accenture na América Latina, o acordo irá levar a experiência das duas empresas ao setor de saúde, integrando software e serviços de forma customizada e alinhada às demandas e necessidades específicas de cada cliente.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Dell investe em mobilidade e acesso seguros com novo Cloud Access Manager

A Dell, fornecedora global de TI, anuncia o lançamento no Brasil da Dell One Identity Cloud Access Manager 8.0. É uma plataforma para gestão de identidade e acesso, baseada em cloud computing, que traz como novidade um mecanismo para análise de segurança (Security Analyst Engine), o qual permite controlar o acesso a aplicações web e para dispositivos móveis compatíveis com o OpenID Connect.

Essa nova versão oferece uma maior segurança e torna mais fácil e adequado o controle de acesso a uma ampla gama de aplicações e ambientes. “O Cloud Access Manager 8.0 possibilita a autenticação via social login e suporte a Open ID Connect, o que dá aos usuários mais segurança e praticidade para acessar um número maior de aplicações – legadas ou novas -, a qualquer hora e local, garantindo o controle e os níveis de segurança exigidos pelos departamentos de TI”, explica Humberto Añez, gerente de Soluções de Segurança Corporativa da Dell para América Latina.

Segundo a Dell, a versão atende a uma demanda crescente das organizações. Isso porque, cada vez mais, funcionários, parceiros e clientes exigem acesso instantâneo e sempre disponível às aplicações – sejam elas instaladas no data center, em cloud computing ou em dispositivos móveis -, enquanto a TI precisa permitir que esse acesso seja feito da forma mais segura possível, para proteger os ativos e dados corporativos, mas sem afetar a agilidade dos negócios.

Para atender a essas novas demandas de usuários e dos departamentos de TI, o Cloud Access Manager 8.0 oferece um único ponto de entrada (single sign-on), que inclui identidade federada e autenticação legada (federation and legacy authentication), junto com as funcionalidades do Dell Security Analytics Engine para executar a segurança de forma contextualizada – analisando ‘quem, o que, quando, porque e qual o motivo de acesso’.

“Essa capacidade de contextualização do Security Analyst Engine atende às mudanças nos parâmetros de segurança tais como localização, horário, dispositivo utilizado e histórico do usuário, os quais são usados pelo Cloud Access Manager para implantar políticas de acesso em tempo real”, afirma Añez.  “Uma pesquisa recente encomendada pela Dell aponta que no Brasil, 55% dos profissionais já utilizam computadores pessoais no trabalho, o que torna a solução extremamente adequada”, acrescenta.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Empresas detectaram, em média, 78 ciberataques em 2014

A Intel Security divulga novo relatório, o Detecção de Ataque de Derrubada e Resposta a Incidentes, realizado pelo Enterprise Strategy Group (ESG). Ele examina as estratégias de segurança das organizações, analisando os  desafios e as necessidades da resposta a ciberataques.

O estudo entrevistou 700 profissionais de TI e de segurança em organizações de variados setores, de médio e grande portes, da Ásia, América do Norte, América do Sul [incluindo o Brasil], Europa, Oriente Médio e África. Ele revelou que os profissionais de segurança realizaram, em média, 78 investigações de incidentes de segurança por organização no ano passado – sendo que 28% desses incidentes envolveram ataques direcionados, uma das formas mais perigosas e potencialmente prejudiciais de ciberataques.

No Brasil, foram entrevistados cem profissionais, sendo 23% de empresas de médio porte (500 a 999 funcionários), 35% de grande porte (1000 a 4999 funcionários) e 42% de empresas com mais de 5 mil funcionários. Os entrevistados atuam nos setores de tecnologia (20%), governo (17%), educação (9%), varejo (9%), finanças (9%), transporte (8%), indústria (8%), saúde (4%) e outros.

De acordo com os profissionais de TI e de segurança entrevistados, melhores ferramentas de detecção e de análise e mais treinamento sobre como lidar com problemas de resposta a incidentes são as melhores práticas e maneiras de aprimorar a eficiência e a eficácia da equipe de segurança.

“Quando se fala em detecção e resposta a incidentes, o tempo possui uma correlação de risco com danos em potencial”, afirma Jon Oltsik, analista sênior no ESG. “Quanto mais tempo uma organização demorar a identificar, investigar e responder a um ciberataque, mais provável será que suas ações não serão suficientes para impedir uma violação onerosa de dados críticos”, acrescenta e ressalta que com isso em mente, os profissionais de segurança da informação devem se lembrar de que a coleta e o processamento de dados de um ataque são um meio para a ação de aprimorar a eficiência e eficácia na detecção e resposta a ameaças.

Melhor integração
Quase 80% dos entrevistados acreditam que a falta de integração e de comunicação entre as ferramentas de segurança cria afunilamentos e interfere em sua capacidade de detectar e responder a ameaças de segurança. Trinta e sete por cento (37 %) exigiram uma integração mais acirrada entre a inteligência da segurança e as ferramentas de operações de TI, pois acreditam que tempo real e visibilidade ampla são especialmente importantes para uma resposta rápida para ataques direcionados.

O estudo mostra também que as tarefas que mais consomem tempo envolvem o escopo e a tomada de ação para minimizar o impacto de um ataque, atividades que podem ser aceleradas pela integração de ferramentas. Essas respostas sugerem que as arquiteturas de retalhos mais comuns de dezenas de produtos de segurança individual criaram inúmeros silos de ferramentas, consoles, processos e relatórios que provaram ser muito demorados para uso. Essas arquiteturas estão criando volumes cada vez maiores de dados de ataque que suprimem os indicadores de ataque realmente relevantes.

Maior abrangência
Os profissionais entrevistados alegaram que a visibilidade da segurança em tempo real sofre pelo entendimento limitado do comportamento do usuário, da rede, do aplicativo e do comportamento do host. Enquanto os quatro principais tipos de dados coletados estão relacionados à rede e 30% apenas coletam dados de atividade de usuário, é claro que a captura de dados não é suficiente.

Os usuários precisam de mais ajuda para contextualizar os dados para entender qual comportamento é preocupante. Essa lacuna pode explicar por que 47% das organizações afirma que determinar o impacto ou escopo de um incidente de segurança é, particularmente, demorado.

Melhor análise
Os usuários entendem que eles precisam de ajuda para evoluir de simplesmente coletar volumes de eventos de segurança e dados de inteligência para ter percepção dos dados de forma mais efetiva e usando-os para detectar e avaliar os incidentes. Cinquenta e oito por cento (58%) dos entrevistados afirmam que precisam de melhores ferramentas de detecção, (como ferramentas de análise estática e dinâmica, com inteligência baseada em nuvem para analisar os arquivos); 53% afirmam que precisam de melhores ferramentas de análise para transformar dados de segurança em inteligência acionável. Um terço (33%) diz que exigiu ferramentas melhores para que as equipes possam detectar as variações com maior rapidez.

Melhor expertise
As pessoas que participaram da pesquisa admitiram ter falta de conhecimento do cenário de ameaças e de habilidades de investigação de segurança, sugerindo que uma visibilidade melhor por meio de integração técnica ou habilidades analíticas seria inadequada se as equipes de resposta a incidentes não tiverem ideia das informações que elas veem.

Apenas 45% dos entrevistados se consideram muito bem informados sobre as técnicas de ofuscação de malwares e 40% querem mais treinamento para aprimorar o conhecimento e as habilidades para cibersegurança.

Automação para ação aprimorada
O volume de investigações, recursos e habilidades limitadas contribuiu para um forte desejo entre os entrevistados por ajuda na detecção e resposta a incidentes. Para 42% dos entrevistados a tomada de ação para minimizar o impacto de um ataque foi uma das tarefas mais demoradas; enquanto 27% prefeririam uma melhor análise automatizada das ferramentas de inteligência de segurança para acelerar a abrangência em tempo real; e 15% preferem a automação de processos para liberar a equipe para tarefas mais importantes.

“Assim como a profissão médica deve levar os pacientes de ataque cardíaco para o hospital na ‘hora de ouro’ para maximizar a probabilidade de sobrevivência, a indústria de segurança deve trabalhar em função da redução do tempo necessário para que as organizações detectem e se desviem do ataque, antes que o dano seja infligido,” afirma Chris Young, gerente geral da Intel Security. “Isso requer fazer perguntas e respostas difíceis sobre o que está falhando e evoluir nosso pensamento sobre como fazemos a segurança.”

Principais resultados da pesquisa no Brasil:

  • As empresas tiveram, em média, 37 investigações de segurança em 2014.
  • 49% dos entrevistados disseram que a maioria das investigações foi realizada devido a ataques de malwares genéricos (worms e vírus que atacam indiscriminadamente). Apenas 29% dos ataques foram associados a ataques direcionados.
  • 84% dos entrevistados dizem ter alguma ou muita dificuldade com a detecção e a resposta a incidentes devido à falta de integração e comunicação entre as suas tecnologias de segurança.
  • Profissionais brasileiros acreditam que os ataques são bem-sucedidos devido principalmente a falta de conhecimento do usuário sobre os riscos de segurança cibernética (46%); pelas sofisticadas táticas de engenharia social (32%); pelo uso de serviços pessoais via web pelos usuários (30%) e pelas políticas de uso de dispositivos pessoais no ambiente de trabalho (30%).
  • Em média, uma equipe de segurança demora seis dias entre a descoberta e a remediação de um ataque direcionado avançado. Em caso de ataque, as empresas brasileiras demoram, em média, 26 horas para identificar um vetor de ataque e fornecer algum nível de garantia de que ele não volte a ocorrer; 17 horas para a recuperação dos serviços; e 14 horas para estabelecer a causa raiz do ataque e realizar ações a fim de minimizar danos para a rede.
  • Sobre os inibidores para a segurança em tempo real nas organizações, 43% disseram que precisam de melhor compreensão sobre comportamento do usuário; 40% precisam de integração mais estreita entre a inteligência de segurança de TI e as ferramentas operacionais; e 39% disseram que precisam de melhor compreensão do comportamento da rede.
  • Apenas 25% acham que os processos de análise de defesa aplicados nas empresas em que trabalham são muito efetivos.

Quatro dicas do ESG para profissionais de segurança da informação:

  1. Criar uma arquitetura de tecnologia de segurança de empresas firmemente integrada. Os profissionais de segurança da informação devem substituir as ferramentas de ponto de segurança individual por uma arquitetura de segurança integrada. Essa estratégia funciona para aprimorar o compartilhamento das informações de ataque e a visibilidade entre empresas em comportamento de usuário, de endpoint e de rede, sem mencionar respostas mais efetivas e coordenadas.
  2. Ancorar sua estratégia de cibersegurança à análise sólida, movendo de volume para valor. As estratégias de cibersegurança devem ser baseadas em análises de segurança sólidas. Isso significa coletar, processar e analisar quantidades maciças de dados internos (logs, fluxos, pacotes, perícia de endpoint, análise estática/ dinâmica de malware, inteligência organizacional (comportamento do usuário, comportamento empresarial etc.)) e externos (inteligência da ameaça, notificações de vulnerabilidade etc.).
  3. Automatizar a detecção e a resposta a incidentes sempre que possível. Os profissionais de segurança da informação devem se empenhar para obter mais automação, como análise de malware avançada, algoritmos de inteligência, aprendizagem de máquinas e o consumo de inteligência de ameaças para comparar o comportamento interno com os incidentes de comprometimento (IoCs), além de táticas, técnicas e procedimentos (TTPs) usados pelos adversários cibernéticos.
  4. Aprendizado contínuo de cibersegurança. Os profissionais da segurança da informação devem exigir a formação em cibernética permanente para suas equipes de segurança, incluindo uma série anual de cursos que fornecem aos profissionais individuais aprofundamento no conhecimento de ameaças e melhores práticas para resposta a incidentes mais eficientes e eficazes.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Bayer cria programa global de incubadora de projetos digitais em Saúde

O grupo Bayer abre inscrições, até 31 deste mês de maio, para o programa Grants4Apps. A iniciativa da multinacional alemã com atuação nos segmentos de Saúde, Ciências Agrícolas e Materiais Inovadores, irá selecionar cinco projetos digitais voltados à área de saúde. Para participar, os interessados devem preencher o formulário no site.

A Bayer fornecerá apoio financeiro de € 50 mil para startups, desenvolvedores, estudantes ou freelancers de todo o mundo para colocarem em prática ideias e projetos digitais que contribuam para melhorias de processos farmacêuticos e na área da saúde em geral.

“Diariamente, a Bayer trabalha para a inovação na área de saúde. Nos últimos 152 anos, a companhia demonstra sua capacidade de inovação. Hoje, o objetivo é combinar nossa expertise com as ideias de outros especialistas, o que acreditamos ser a chave para a inovação e o sucesso”, afirma Theo van der Loo, presidente do Grupo Bayer no Brasil.

O Grants4Apps complementa o programa “Grants4Apps Accelerator”, uma nova iniciativa colaborativa da Bayer HealthCare, com foco no campo da saúde digital. O Accelerator oferece espaço para cinco startups digitais nas instalações da Bayer HealthCare em Berlim por 100 dias. Para este programa, a Bayer oferece às empresas uma orientação personalizada com líderes da companhia.

As empresas também recebem aconselhamento intensivo de especialistas internos e externos da Bayer e acesso a uma ampla gama de contatos profissionais.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Certificação Digital cresce 15% em 2015 no País

A Associação Nacional de Certificação Digital (ANCD), entidade recém-criada pelas autoridades certificadoras do Brasil, informou que, até fevereiro de 2015, foram emitidos 9,35 milhões de certificados no País, o equivalente a um crescimento de 15% ao ano da certificação digital.

Para Antônio Sérgio Borba Cangiano, diretor-executivo da ANCD, o registro mostra a evolução da certificação digital no Brasil. “Ela proporciona a eliminação da burocracia e o ganho de tempo, além de trazer a redução de custos diretos e indiretos, como a manutenção de espaços para armazenar documentos. Queremos destacar que a certificação digital permite o trabalho num universo praticamente sem o uso do papel”, diz.

Lançada neste mês de maio, a ANCD nomeou como presidente o empresário Júlio Cosentino, que é vice-presidente da Certisign. O porta-voz da entidade é o diretor-executivo Antônio Cangiano, com vasta experiência no segmento de TI e passagens por grupos como Serpro, IMA, Prodesan, IBM, Unisys, Origin e ITI.

“Nossos primeiros associados são Certisign, Serasa, Valid, Boa Vista, Soluti e ACBr. Essas seis empresas representam 90% do mercado certificador digital”, informa Cangiano. Segundo o diretor-executivo, essas companhias são privadas, mas todas as demais do segmento, incluindo as públicas, serão convidadas a participar da nova entidade.

Cosentino diz que o setor sempre se ressentiu da falta de uma entidade que os representasse. “Precisamos evoluir, ter essa visão de que a certificação digital cresceu, assumiu outras perspectivas e tem papel fundamental a exercer para o crescimento da economia como um todo. Representamos essa evolução tecnológica, o avanço e nossa entidade certamente irá espelhar essa nova realidade, a relevância do setor certificador”, relata.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Mercado de PCs retrai 20% no 1º trimestre de 2015 no Brasil

Estudo da IDC aponta que escândalos com corrupção, alta do dólar e
diminuição do crédito contribuíram fortemente para a queda

A IDC, consultoria global de TI e telecom, divulga que o mercado de PCs continua em queda no País. Entre janeiro e março foram comercializados 1,964 milhão de PCs, ou seja, 20% menos do que no mesmo período do ano passado, quando foram vendidas 2,4 milhões de unidades.

Em 2014, o mercado já havia retraído 26% na comparação com o ano anterior e respondido por vendas de apenas 10,3 milhões de computadores. Os dados fazem parte do estudo IDC Brazil PCs Tracker Q1, realizado pela IDC Brasil.

Do total de equipamentos comercializados no primeiro trimestre de 2015, 804 mil foram desktops (queda de 21% frente ao mesmo período de 2014) e 1,160 foram notebooks (queda de 19% na comparação com o primeiro trimestre do ano passado). Além disso, 32% representam vendas para o mercado corporativo e 68% para o consumidor final.

O resultado não está de acordo com as expectativas da IDC Brasil, que esperava um número maior de vendas no período. “Esse começo de ano foi muito turbulento e isso impactou diversos setores da economia. Os escândalos de corrupção, a diminuição do crédito e a alta do dólar esfriaram o mercado e foram determinantes para esse resultado”, afirma Pedro Hagge, analista de Pesquisas da IDC Brasil.

Segundo ele, a confiança da indústria, e a do consumidor, foi prejudicada e há uma cautela muito grande em relação a investimentos. Além disso, houve reajuste de cerca de 15% a 20% nos preços dos computadores, o que impactou ainda mais nas vendas.

“O mau desempenho do quarto trimestre do ano passado e a opção por outros dispositivos, como smartphones, também influenciaram para o resultado de vendas de PCs no primeiro trimestre desse ano”, completa o analista da IDC.

O estudo revela, também, que o ticket médio dos aparelhos comercializados no 1º trimestre de 2015 ficou em torno de R$ 2.320 para notebooks e R$ 1.701 para desktops.



Como calcular TCO de aplicativos? Confira em 5 passos Colaborador

por Fábio Barnes*

Conhecer o Custo Total de Propriedade (TCO) de aplicativos é um diferencial de mercado para qualquer empresa que quer administrar os custos envolvidos na propriedade de um aplicativo e, principalmente, saber o momento em que aquele aplicativo precisa ser atualizado, remodelado ou substituído.

Um exemplo prático é quando você decide comprar um carro, avalia os custos de aquisição – consumo de combustível, seguro, manutenção, valor da revenda e até o tamanho da garagem. Depois de alguns anos, o carro começa a exigir manutenções cada vez mais caras. Isso significa que seu automóvel já está desatualizado, enquanto os modelos mais novos têm opções de desempenho e conforto melhores do que o seu. Em algum momento, os custos de manter seu carro passam a ser mais caros do que adquirir um novo.

O mesmo vale para os aplicativos da sua empresa. Mas como avaliar o TCO deles? A seguir, um guia rápido e prático que o ajudará nessa missão.

Passo 1: Estabelecer um objetivo
TCO é um conceito financeiro e existem várias metodologias no mercado para fazer esse cálculo. Aqui vamos falar sobre calcular TCO de um aplicativo com o objetivo de avaliar a viabilidade econômica de uma nova forma de gestão dele.

Passo 2: Definir quais custos são relevantes para a análise
Leve em conta os custos com licenças do aplicativo e outros softwares – como banco de dados (suporte anual) -, salários e benefícios dos funcionários envolvidos na gestão do aplicativo (analistas de sistemas, DBAs, programadores, suporte help desk) e serviços de terceiros (suporte, manutenção, desenvolvimento, entre outros).

Passo 3: Levantar os custos relativos aos itens do passo anterior
É importante identificar os custos que incorrem regularmente em todos os meses e também aqueles que são sazonais ou temporários. Outro item importante a levantar são os custos que irão incorrer no futuro, como atualização tecnológica, serviços de atualização de versão do aplicativo e de banco de dados. Para ajudar, é interessante buscar como esses custos ocorreram no passado.

Aqui vale uma observação, existem alguns custos muito difíceis de aferir. Por exemplo, o custo do downtime (paradas, interrupções) ou má performance. Quando acontece uma parada do aplicativo, pode existir algum custo adicional para restabelecer a operação. Além disso, a interrupção causa problemas ao negócio, como uma demora na emissão de nota fiscal, recepção de mercadoria, emissão de uma ordem de produção, entre outros que irão gerar gastos extras.

Passo 4: Organizar os custos levantados ao longo do tempo
Agora, chegou o momento de inserir os itens de custo levantados até aqui em uma linha do tempo. A ideia é definir pelo menos um ciclo para cada um deles. Avalie o período que cada item de custo ocorre. Por exemplo, salários ocorrem mensalmente, já uma atualização tecnológica, a cada três anos. O maior período será o escolhido para análise do TCO.

Organize os custos futuros e passados. Assim você conhecerá o TCO (em “x” anos) do passado e do futuro. Para conhecer o TCO mensal, é só somar o custo de todos os meses e dividir pelo número de meses da análise.

Passo 5: Identificar quais custos serão substituídos pelas diferentes alternativas
Como o objetivo desse estudo é avaliar a viabilidade econômica de uma nova forma de gestão do aplicativo, agora você pode saber se a gestão do seu aplicativo está eficiente, comparando com outras alternativas. Avaliar se essa gestão traz vantagem competitiva para sua empresa e analisar alternativas para melhorar a gestão de custo do aplicativo.

Uma alternativa para a redução do TCO em TI é a modalidade software como serviço (SaaS). O SaaS engloba alguns custos diretos e indiretos da gestão de aplicativos, permitindo assim uma forma diferente da tradicional de gerir os custos de aplicativos, além de utilizar os recursos de forma mais eficiente.

É importante destacar que a análise do TCO é um dos itens que influenciam na escolha de um novo aplicativo ou forma de gestão. Contudo, outros fatores como retorno do investimento (ROI), time to value (TtV) e arquitetura tecnológica também são vitais e devem ser considerados antes da tomada de decisão.

*Fabio Barnes é diretor-executivo da Engine



Dell assume liderança em vendas de PCs no Brasil, segundo IDC

A Dell assumiu a liderança no mercado brasileiro de PCs, com 15,8% de todas as unidades vendidas no primeiro trimestre de 2015, de acordo com recente relatório divulgado pela consultoria IDC Brasil. Em 15 anos de atuação no País, é a primeira vez que a empresa ocupa a posição de número um em vendas totais de computadores em solo nacional. No trimestre anterior, a Dell já tinha conquistado a liderança nas vendas de notebooks no Brasil, mas, até então, mantinha a segunda posição no número total de PCs.

“Em apenas um ano, saltamos da quarta para a primeira posição nas vendas gerais de PCs no Brasil. Esse resultado reflete uma estratégia baseada em diversos pilares: a oferta de um portfólio completo e adequado a diferentes necessidades dos clientes; a qualidade dos produtos e dos serviços; a comercialização dos computadores como parte da oferta de soluções de TI ponta-a-ponta; e a expansão nos canais de vendas”, afirma Luis Gonçalves, presidente da Dell Brasil.

“O varejo foi fundamental para alcançarmos essa liderança histórica. Em 2014, aumentamos em cinco vezes o número de lojas varejistas que comercializam desktops e notebooks da Dell, e estamos presentes nos maiores sites de comércio eletrônico”, acrescenta.

Luis lembra ainda que o crescimento acelerado das vendas de PCs teve como base um esforço coordenado do time da Dell Brasil na expansão da oferta de equipamentos com recursos avançados e de novas categorias como notebooks 2 em 1, que reúnem computador e tablet em apenas um produto, bem como em iniciativas voltadas a garantir a melhor experiência dos clientes, por meio de um atendimento eficiente e serviços agregados, como a pioneira oferta de Garantia a Domicílio e o Complete Care (contra danos acidentais).

“Além da liderança de PCs, a Dell ainda mantém a primeira posição em segmentos-chave, como a venda de servidores, na qual é líder no mercado brasileiro há dez anos, além de acompanhar um crescimento expressivo nas vendas de storage, networking, soluções de segurança e gerenciamento de infraestrutura”, completa Gonçalves.

A oferta de computadores faz parte de uma estratégia da Dell de posicionar-se como fornecedora de soluções de TI ponta-a-ponta, por meio de um portfólio completo – que inclui hardware, software e serviços – voltado desde usuários finais, micro, pequenas, médias e grandes empresas.

 

Acessse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Novo Focus fortalece compromisso da Ford com inovação tecnológica

Não foi um evento de novidades, mas sim de reafirmação e consolidação da Ford na busca por inovações tecnológicas que ampliem os benefícios para os usuários dos seus veículos e contribuam para a transformação da mobilidade e da conectividade pelas estradas do mundo. Com essa bandeira, foi apresentado o novo Focus, impregnado de sensores que irão possibilitar a geração de uma avalanche de dados estimada em 25GB, por hora. Isso, por cada Focus, ou modernos veículos Ford. Essa futura geração do Focus deve chegar ao mercado no segundo semestre na América do Sul, incluindo o Brasil.

Entre as novas tecnologias do Focus estão o sistema de conectividade Sync com AppLink, que permite o acesso a aplicativos de smartphones por comandos de voz; a Assistência de Emergência, que faz ligação automática ao Samu, em caso de acidente; o estacionamento automático para vagas paralelas e perpendiculares; e a assistência de frenagem de emergência (Active City Stop), que para o carro ao detectar a possibilidade de colisão a até 50 km/h.

Estacionamento automático e assistente de frenagem de emergência contribuíram para dar ao novo Focus o título de carro médio mais inovador no prêmio AutomotiveINNOVATIONS, realizado este mês na Alemanha. Na mesma premiação, que avaliou mais de 1, 2 mil inovações técnicas de 18 grupos globais de automóveis, a Ford também foi eleita a Marca de Volume Mais Inovadora.

Além de ser um dos carros mais vendidos do mundo, com mais de 13 milhões de unidades, o Ford Focus foi o primeiro carro produzido na América do Sul a receber a classificação máxima de cinco estrelas nos testes de impacto do Latin NCAP.

Segundo Marcio Alfonso, diretor de Engenharia da Ford América do Sul, o sistema Sync mostra o pioneirismo da montadora em sistemas de conectividade embarcados, com comandos de voz para operação do celular, rádio e climatização do veículo, sem a necessidade de tirar as mãos do volante. “Com o sistema AppLink, o Sync também passou a acessar aplicativos de smartphones que abrem várias opções de informação, entretenimento e conveniência, inserido no conceito de conectividade com segurança”, explica Alfonso.

A Assistência de Emergência, já oferecida também em outros modelos da Ford, como novo Ka, New Fiesta, EcoSport e Ranger, faz uma ligação automática ao serviço de atendimento médico de urgência, Samu, em caso de acidente com acionamento dos airbags ou corte de combustível. Uma preocupação imprescindível para que a tecnologia ganhe contornos mais humanos e sociais.

O Estacionamento Automático que será introduzido no Brasil com o novo Focus funciona com o apoio de sensores e câmera e é capaz de manobrar tanto em vagas paralelas como perpendiculares, sem que o motorista precise mexer no volante. Além de tornar a direção mais simples, contribui para pavimentar o caminho do futuro carro autônomo.

O Assistente de Frenagem de Emergência é outra tecnologia inovadora voltada para a segurança. Também conhecido como Active City Stop, ele conta com sensores que monitoram o tráfego e, ao detectar a possibilidade de uma colisão, reduz a velocidade e aciona os freios do veículo. Ele opera em velocidades de até 50 km/h e ajuda a evitar acidentes causados por desatenção no trânsito.

Reforçando a estratégia de inovação
O discurso de Steven Armstrong, presidente da Ford América do Sul, que esteve presente ao evento, como não poderia deixar de ser, reiterou que a empresa quer ser vista, muito além do DNA automotivo, também como uma companhia de tecnologia. “Estamos trabalhando para antecipar as necessidades e desejos dos consumidores, especialmente em conectividade, mobilidade e veículos autônomos, e para tornar essas tecnologias acessíveis para todos, não apenas para os consumidores de luxo.”

Foi um reforço à fala do presidente e CEO da Ford, Mark Fields, durante a feira de tecnologia, a Consumer Eletronics Show (CES), que aconteceu em janeiro deste ano em Las Vegas (EUA), quando anunciou o novo Plano de Mobilidade Inteligente da companhia. “Não queremos ser somente uma indústria de veículos, mas também de mobilidade, no sentido de revolucionar a forma como o mundo se move”, disse ele na ocasião, acrescentando ser prioridade da Ford oferecer veículos acessíveis às massas, com o objetivo maior de, efetivamente, melhorar a vida dos usuários. E estão aquecendo essa estratégia com o carro de entrada da montadora, o novo Ka. Vamos torcer.

Por outro lado, o líder global da área de inovação da Ford, Ken Washington, faz coro e alerta que o desafio da mobilidade está associado a quatro grandes tendências mundiais: o avanço da população urbana, o crescimento da classe média, a sustentabilidade ambiental e as mudanças de hábitos e prioridades dos consumidores, criando novos modelos de negócios.

“Vemos um mundo onde os veículos se comunicam uns com os outros, os motoristas e veículos se comunicam com a infraestrutura da cidade para evitar congestionamentos e as pessoas compartilham veículos e múltiplas formas de transporte em seus deslocamentos diários”, relata e dá como exemplo o aplicativo gratuito Waze, que direciona e redireciona rotas mais livres aos motoristas que também podem interagir nesse processo, driblando o trânsito pesado.

No centro da estratégia de sustentação da inovação, está o Centro de Pesquisa e Inovação em Palo Alto, inaugurado em 2012. “É preciso ouvir as pessoas e entender suas necessidades para poder atendê-las de maneira adequada. O centro proporciona essa interação com a comunidade”, afirma Washington, para quem o futuro parece estar logo ali.

 

Acessse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Salesforce e Sage anunciam parceria global. Foco em nuvem para PMEs

 A Salesforce e a Sage anunciaram hoje (13/05) a parceria global estratégia, que unirá soluções de contabilidade e folha de pagamento para pequenas e médias empresas (PMEs) com a solução de CRM e plataforma de nuvem corporativa. O acordo proporcionou a criação da Sage Life, na plataforma Salesforce1, solução de plataforma como serviço (PaaS) corporativa, que permite às PMEs operarem completamente na nuvem.

De acordo com as empresas, hoje, o pequeno negócio típico tem entre quarto e oito sistemas de software para gerir a companhia, criando complexidade e dificultando sua capacidade de obter uma visão única das informações dos consumidores, funcionários e fornecedores. Otimizado para dispositivos móveis e mídias sociais, o Sage Life possibilitará a conexão dos dados de consumidores, contabilidade e folha de pagamento, e dados financeiros, em um sistema acessível de qualquer dispositivo em qualquer lugar.

O Sage Life é customizável, baseado na nuvem e pode ser usado em qualquer dispositivo móvel, de smartphones a smart watches, e de tablets a desktops. Com seu centro de controle de dispositivos móveis, os empregados têm acesso a dados em tempo real, e podem reagir como uma equipe. Tendo o networking social como seu núcleo, o Sage Life permite interconexões contínuas entre colegas, consumidores, parceiros, fornecedores e outros stakeholders.

“Junto com a Salesforce, a Sage está moldando o futuro dos pequenos negócios. Os softwares para pequenos negócios não têm mais de representar diferentes sistemas ou camadas de complexidade”, diz Stephen Kelly, CEO da Sage. “Eles serão simples, colaborativos e irão operar em tempo real. Com o Sage Life, nós estamos oferecendo inovação baseada em nuvem e em mídias sociais e dispositivos móveis, gerada por contabilidade em tempo real”, acrescenta.

Segundo Marc Benioff, presidente e CEO da Salesforce, juntas, Sage e Salesforce vão permitir às empresas de crescimento rápido gerir seus negócios em uma nova plataforma de nuvem corporativa.

Segundo a Sage, a empresa está empenhada em apoiar as pequenas e médias empresas em todo o mundo, bem como suas comunidades. Como parte da parceria, ela também se juntou ao Pledge 1%, um movimento filantrópico baseado no modelo 1-1-1 da Salesforce.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



e-Social não é só uma questão de troca de informação ou relatório

Carlos Eduardo Salvador*

Conversando com alguns parceiros, prospects e clientes, tenho notado que a questão relacionada à disponibilização das informações requeridas para o cumprimento das obrigações fiscais, previdenciárias e trabalhistas do e-social tem sido subestimada.

Visando atingir os novos prazos de 2016, muitas empresas já contrataram ou estão avaliando soluções de mercado capazes de gerar informações no formato requerido pelo governo, além de controlar a troca de informação com o mesmo, porém poucas se deram conta que o maior desafio associado a essa nova regulamentação está um passo antes, relacionado à habilidade de obter e manipular dados dos funcionários com qualidade.

Acesso, transformação, padronização e qualidade dos dados relacionados às obrigações de funcionários para alimentar as soluções de e-social existentes no mercado formam uma etapa crucial e obrigatória que, por muitas vezes, não vem sendo tratada com a atenção que merece e/ou de forma pouco produtiva.

Riscos na implementação
Soluções manuais ou baseadas em hand-coding estão sendo adotadas e definitivamente adicionam riscos à implementação e à operação do e-social, além de incluir brechas na qualidade e na rastreabilidade da informação. Brechas que podem gerar tanto penalidades futuras já previstas pelo e-social, quanto aumento dos custos internos relacionados à investigação de incidências ou manutenções corretivas não previstas.

As informações necessárias para alimentar as soluções de mercado que geram os dados no formato regulamentado pelo e-social estão espalhadas em diversos sistemas nas corporações. Esses dados não conversam, abrigam a mesma informação de maneira não padronizada, operam em tecnologias heterogêneas e geralmente apresentam problemas de qualidade, como duplicidade.

Para piorar ainda mais esse cenário, as informações do e-social devem ser disponibilizadas de maneira recorrente, o que obriga a sincronização constante entre os sistemas provedores de dados. E isso, diga-se de passagem, não é uma tarefa fácil, caso não se utilize uma abordagem adequada.

A adoção de tecnologias que permitam governar os dados dos funcionários em suas diferentes etapas pode mitigar os riscos da implementação e operação do e-social. Criar uma solução definitiva que não só sirva para alimentar os dados requeridos para essa nova regulamentação, como também possibilitar à empresa uma visão mais ampla dos seus colaboradores e de suas interações com a própria empresa. Até mesmo o relacionamento com a sociedade pode ser incluído, por meio de informações obtidas via mídias sociais ou mesmo providas por órgãos externos.

Tecnologia vital
Definitivamente, é mandatória a adoção de uma solução de integração de dados capaz de consumir informações provenientes de diferentes origens (suportadas por diversas tecnologias em diversas plataformas) de uma maneira padronizada e sistemática, associada a um componente de qualidade que permita identificar os problemas de dados, tratá-los, padronizá-los e corrigi-los. Dessa forma, organizar os fragmentos de informação de funcionário requeridos pelo e-social. Incluindo a capacidade provida por uma solução de Master Data Management (MDM) de manter os dados de colaboradores constantemente organizados e sincronizados em um repositório central a prova de duplicidades, facilitará a disponibilização segura das informações e criará uma infraestrutura de dados flexível a mudanças futuras que, com certeza, surgirão com o amadurecimento dessa nova regulamentação.

Não menos importante é a capacidade dessas soluções de organizar e correlacionar os metadados provenientes de cada etapa de tratamento de dados. Elas disponibilizarão uma visão completa do fluxo de informação, o que permitirá total rastreabilidade sobre a composição da ficha de cada funcionário. Aspecto altamente relevante em uma eventual situação de contestação ou auditoria sobre os dados informados ao governo.

O e-social não é apenas uma questão de troca de informação ou relatórios, é uma questão de governança, capacidade e habilidade de lidar com os dados.

* Carlos Eduardo Salvador é diretor de pré-vendas da Informatica Corporation



FIA inaugura laboratório de Big Data

 Fundação Instituto de Administração (FIA) lança a partir deste mês de maio o LABDATA, laboratório de BIG Data da instituição. O Laboratório de Análise de Dados é um centro de ensino, pesquisa e consultoria em análise de dados da FIA, coordenado pelo professor Dr. Adolpho Walter Pimazoni Canton (PhD em estatística aplicada pela Universidade de North Carolina – EUA). O LABDATA é composto por professores, consultores e profissionais de mercado altamente qualificados, ou seja, uma equipe multidisciplinar.

A Fundação entende que com a evolução da tecnologia e a redução do custo de processamento, os projetos de Big Data tornaram-se muito relevantes nas organizações. “É possível identificar que, atualmente, esses projetos já começam a fazer parte das estratégias empresariais.”

Para a professora Alessandra Montini, pesquisadora do LABDATA, as técnicas de Big Data auxiliam no entendimento das necessidades dos clientes, visto que hoje as pessoas estão conectadas por meio de diversos dispositivos e geram muitos dados diariamente. “O Big Data consiste em transformar dados em tomadas de decisões para as organizações. O que efetivamente gera a otimização de processos e custos para as empresas”, comenta a acadêmica.

Na visão da FIA, o Brasil ainda é um país atrasado quando o assunto é Big Data. Atualmente, poucas são as empresas que investem nesse tipo de projeto, mas esse cenário está mudando. Alessandra reforça ainda que para administrar todo esse volume de dados e informações, as companhias necessitam de profissionais especializados em capturar, armazenar e processar esses dados de forma rápida, porém eficiente. O que permite uma tomada de decisão, praticamente, em tempo real.

“O Big Data será imprescindível em áreas do conhecimento que há alguns anos não utilizavam métodos estatísticos como, por exemplo, na área de Recursos Humanos. Algumas técnicas de Big Data podem ser utilizadas para analisar as características de candidatos com base na avaliação de currículo e dados disponíveis nas redes sociais, além de sugerir a contratação ou promoções de colaboradores”, finaliza.



Natura inaugura em Itupeva seu mais moderno centro logístico das Américas

A Natura inaugura em Itupeva, interior de São Paulo, o mais moderno hub logístico das Américas, com tecnologia inédita que tem como diferencial o armazenamento de caixas e pallets, gerenciadas por um software WMS (Warehouse management systems) customizado. Somente outros dois centros da companhia utilizam essa tecnologia, que são os localizados na Suíça e Austrália. O investimento na tecnologia foi R$ 73 milhões.

O uso desse software permite ao centro montar pallets mistos. “Dessa forma o espaço de armazenagem é totalmente aproveitado, o tempo de estoque é menor e reduziremos a emissão de gás carbônico nas viagens para o Norte e Nordeste, pois aproveitaremos ao máximo o espaço das carretas”, explica Josie Peressinoto Romero, vice-presidente de operações e logística da Natura.

Outra novidade é o circuito São Paulo 100% automatizado. Isso significa que uma carreta especialmente desenvolvida pela Natura é carregada em Cajamar com produtos acabados, descarregada no hub em Itupeva, montada novamente com produtos solicitados pelo centro de distribuição de São Paulo e por fim, descarregada na capital paulista sem nenhum contato humano.

O processo de retirada e abastecimento de produtos desta carreta especial leva 5 minutos. “Montamos toda a carga fora do caminhão e depois, através de um sistema de esteiras motorizadas e elevadores, transportamos tudo para o interior da carreta”, explica Angel Medeiros diretor de Inovação Logística da Natura. O mesmo processo, de forma inversa, é feito para receber a carreta.

Hub é um grande armazém onde se estoca apenas produtos acabados. A unidade da Natura armazenará 100% dos produtos de fabricação interna e por seus parceiros instalados em cidades próximas a Itupeva.

Desse local sairão cargas para oito centros de distribuição espalhados pelo Brasil e também para os países onde a empresa mantém operação internacional: Peru, Argentina, Colômbia, México, Chile e França. Em média serão movimentadas 60 carretas por dia.

“Estamos em localização privilegiada. O aeroporto de Viracopos e o porto de Santos são próximos, muitos de nossos parceiros e a principal fábrica da Natura ficam muito perto do hub. Dessa forma conseguiremos escoar nossa produção ainda mais rapidamente”, explica Josie Romero.

Para operar o sistema, cuja implementação contou com o apoio institucional da Investe São Paulo, foram gerados cerca de 180 empregos diretos e indiretos. A mão de obra é capacitada para fazer o hub funcionar com a mais alta tecnologia. O empreendimento começa a operar plenamente neste mês de maio e deve movimentar cerca de três mil pallets por dia.

Raio X do Hub Natura
35 mil m2 de área construída
90 mil posições pallets
13 transelevadores de pallets
20 Navettes para armazenagem de caixas
2 robôs de despaletização automática
2 robôs de paletização automática (inclui pallets mistos)
2 esteiras telescópicas (carga à granel)
3,6 milhões de caixas
35 mil posições caixas
60 carretas por dia
Carregamento de carreta à granel em 2 horas
3 mil pallets por dia
180 empregos diretos e indiretos

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Mercado brasileiro de TI cresce 6,7% em 2014 e US$ 60 bilhões

A indústria brasileira de TI movimentou US$ 60 bilhões em 2014, com crescimento de 6,7% em comparação com o volume de negócios registrado em 2013. Desse montante, US$ 25,2 bilhões foram gerados pelo setor de software e serviços, sem exportações. Com esse resultado, o Brasil está posicionado em 7º lugar no ranking mundial de TI e na colocação em  investimentos no mercado de tecnologia na América Latina, com 46% desse segmento que somou US$ 128 bilhões no ano passado.

Os dados fazem parte do “Estudo sobre o Mercado Brasileiro de Software e Serviços 2015, realizado pela IDC e apresentado Associação Brasileira das Empresas de Software (Abes) durante o seminário “Governo e o Setor de TI – Garantia de Inovação, Produtividade e Segurança”, realizado esta semana em Brasília.

Ao considerar isoladamente o mercado de software, o faturamento atingiu no ano passado a marca de US$ 11,2 bilhões, sem exportações. Já o setor de serviços registrou valor na ordem de US$ 14 bilhões em 2014.

De acordo com a pesquisa da IDC o mercado brasileiro de software e serviços é liderado por micro e pequenos negócios, com participação de 45,62% e 49,02%, respectivamente. Os empreendimentos de médio porte tem representação de 4,33% e os grandes apenas 1,03%.

O estudo também trouxe a distribuição de gastos de TI no País. O Sudeste foi a região com maior participação total nos investimentos em hardware, software e serviços, com 60,67%. O Centro-oeste registrou 10,9% de participação; Nordeste 10,1% e o Sul 14,53%. Já o Norte do país foi o que menos investiu no setor, com um percentual de 3,7%.

Segundo o estudo da IDC, o mercado de TI no Brasil, incluindo hardware, software e serviços, cresceu 6,7%. Em 2014, foram dispendidos, mundialmente, US$ 2,09 trilhões em TI. No ranking mundial, o Brasil se manteve na 7ª posição, com investimentos na ordem de US$ 60 bilhões, 3% do mercado mundial. Os Estados Unidos mantiveram a liderança com 679 bilhões de dólares. Já a China superou o Japão com US$ 201 bilhões e se posiciona em 2º lugar no ranking.

A pesquisa aponta que o número de computadores instalados no Brasil chegou a 69,9 milhões, em 2014. O mercado brasileiro de TI também contava com 120 milhões de usuários de Internet no ano passado.

De acordo com as tendências citadas no estudo, a receita total com serviços de telecom, que incluem soluções móveis e custos de profissionais para redes corporativas, alcançará US$ 104 bilhões, em 2015. O uso de ferramentas móveis chegará a 1/3 dos funcionários de empresas médias e grandes.

Mobilidade e nuvem
Já as vendas de tablets, smartphones e computadores somados representarão 45% dos investimentos em TI no Brasil, em 2015. O estudo ainda prevê uma ampliação do mercado de segurança devido ao avanço do cloud computing, chegando a US$ 117 milhões no Brasil, neste ano. Infraestrutura e serviços para nuvem terão crescimento superior a 50% do mercado de rede pública no Brasil, em 2015.

Nas tendências apontadas, a Internet das Coisas (IoT) ganha visibilidade com a previsão de mais de 130 milhões de “coisas” conectadas no Brasil e, aproximadamente, metade da América Latina.

Outro ponto citado está relacionado ao desenvolvimento voltado à Terceira Plataforma: “Application Development” e “Deployment” seguirão acelerados, em 2015, chegando a US$ 1.344 milhões. Já Business Intelligence e Analytics devem atingir US$ 788 milhões, em 2015.



Governo aposta em M2M para impulsionar setores estratégicos da economia

Em um debate sobre cidades inteligentes promovido ontem (06/05) no Rio de Janeiro, o secretário de Telecomunicações do Ministério das Comunicações (MiniCom), Maximiliano Martinhão, destacou o potencial da comunicação M2M (máquina a máquina) em beneficiar setores da economia nacional e as políticas do Ministério das Comunicações nessa área. O M2M é a comunicação feita entre máquinas que não necessita de intervenção humana, considerado um dos elos fortes da Internet das Coisas (IoT).

Para incentivar o setor, no ano passado o governo desonerou as taxas cobradas sobre os dispositivos M2M em até 80% e criou uma Câmara de Gestão e Acompanhamento para subsidiar a formulação de políticas públicas em setores prioritários e promover a cooperação entre empresas, fabricantes e entidades de ensino e pesquisa.

Segundo Martinhão, o MiniCom trabalha para realizar a próxima reunião da câmara em maio. Para o secretário, o setor público deve dialogar com o setor privado para conhecer as soluções existentes e direcioná-las para áreas como o transporte, saúde e gestão pública.

“A gente quer acompanhar a implementação dessas tecnologias para saber as necessidades, promover o uso e verificar a necessidade de ter projetos específicos de pesquisa”, afirma.

A Câmara de Gestão e Acompanhamento do Desenvolvimento de Sistemas Máquina a Máquina tem como componentes membros dos ministérios das Comunicações; da Ciência e Tecnologia e Inovação; do Desenvolvimento, Indústria e Comércio Exterior; da Agência Nacional de Telecomunicações, além de representantes da indústria, empresas de telecomunicações, instituições de ensino e pesquisa e desenvolvedores de aplicações M2M.

Comunicação M2M
Os dispositivos M2M são utilizados em vários setores estratégicos da economia e contribuem para aumentar a produtividade nesses setores. Sistemas de comunicação M2M têm o potencial de aumentar a eficiência dos processos produtivos e de prestação de serviços por permitirem medições em tempo real e a tomada de decisões dinâmica, com o objetivo de reduzir custos, minimizar falhas e desperdícios e aumentar a segurança.

Veja a seguir setores da economia que pode se beneficiar da tecnologia M2M:

– Indústria: automação por meio de robótica em processos de produção (smart factory);
– Energia elétrica: medidores inteligentes (smart grid) e monitoramento de linhas de transmissão. Em 2015, as concessionárias de energia elétrica deverão oferecer aos clientes a opção de instalação de medidores inteligentes. Com isso, os usuários poderão, por meio da comunicação M2M, ter acesso, em tempo real, a dados sobre a conta de energia elétrica, melhores horários de consumo, balanceamento de carga, receber alertas etc.
Segurança pública e defesa: monitoramento de áreas de segurança e reação a incidentes;
– Logística: rastreamento e segurança de transporte de pessoas e de cargas;
– Mobilidade urbana: transporte público com rastreamento. A política estabelecida pelo Denatran determina que, em 2015, todos os veículos sairão de fábrica com módulos para rastreamento embarcados.
O uso de comunicação M2M permitirá aos fabricantes monitorar o veículo para saber consumo, manutenção, emissão de gases etc. Do ponto de vista de gestão pública, permitirá evitar roubo/furto de veículos/carga, controlar tráfego, restringir acesso a zonas urbanas, fiscalizar velocidade etc.

O uso de comunicação M2M permitirá aos fabricantes monitorar o veículo para saber consumo, manutenção, emissão de gases etc. Do ponto de vista de gestão pública, permitirá evitar roubo/furto de veículos/carga, controlar tráfego, restringir acesso a zonas urbanas, fiscalizar velocidade etc.

– Agricultura: irrigação automatizada, plantio automatizado, monitoramento de safra;
Saúde: diagnóstico remoto (por exemplo, monitoramento cardíaco). Em caso de doentes crônicos, é possível monitorá-los remotamente, de forma que caso haja qualquer alteração na qualidade dos indicadores de saúde, o serviço médico seja acionado para cuidar da pessoa.

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Receita líquida da TIM cai 3,5% no primeiro trimestre de 2015

A desaceleração da economia brasileira impactou nos resultados financeiros da TIM no primeiro trimestre de 2015. Segundo balanço divulgado pela companhia, a receita líquida apurada no período foi de R$ 4,5 bilhões, com queda de 3,5% em comparação aos R$ 4,7 bilhões reportados na mesma época em 2014. Já o lucro líquido ficou em R$ 313 milhões, 16% menos que os R$ 372 milhões registrados nos primeiros três meses do exercício anterior.

De acordo com o balanço financeiro, a companhia do grupo italiano encerrou o primeiro trimestre de 2015 com o EBITDA (lucro antes dos juros, impostos e amortização), de R$ 1,340 bilhão, com alta de 1,7% sobre o mesmo período em 2014. A margem subiu 29,5%, aumento histórico, segundo a operadora.

Entre os serviços que cresceram mais no primeiro trimestre, a TIM aponta os de dados, com taxa de aumento de 46% na comparação anual. Esse negócio já representa 36% da receita dos serviços móveis da companhia.

Outro destaque é a alta da base de clientes no segmento pós-pago, que subiu 6% no ano. A boa performance, segundo a TIM, é resultado da estratégia agressiva dos Planos Controle, que ajudaram a empresa a retomar crescimento de seu market share e da participação em adições líquidas com base na qualidade e nas ofertas.

Usuários conectados
Os smartphones respondem por 90% dos dispositivos vendidos no primeiro trimestre de 2015. Assim, a penetração dessa categoria de celular na base de clientes da TIM chegou a 53% do total de usuários.

Entre os serviços mais acessados pelos usuários de smartphones, a TIM menciona o WhatsApp, que é o aplicativo de mensagens mais usado no Brasil. A companhia ampliou sua oferta para os planos da família Express, que têm como principal característica o processo de faturamento por meio cartão de crédito. A oferta permite que os clientes enviem mensagens de texto e voz, fotos e vídeos no app sem desconto da franquia de dados contratada.

O mesmo benefício está disponível no Blah, aplicativo de comunicação integrada desenvolvido pela TIM e que comemorou a marca de um milhão de downloads no trimestre. Outros serviços inovadores que adicionaram novas fontes de receitas foram o TIM Music, download de músicas, e o TIM Protect, uma linha de soluções voltadas para segurança digital.

“O futuro do mercado de telecomunicações está no serviço de dados. E a TIM segue como protagonista nesse movimento de evolução do setor. Hoje, quase metade da nossa base total de clientes utiliza a internet móvel e nossa receita de dados já responde por um terço da receita total. Esse é o caminho a ser seguido e que irá nos levar a resultados cada vez mais expressivos, mesmo em meio a um cenário desafiador”, afirma Rodrigo Abreu, presidente da TIM Brasil.

Por apostar nessa tendência, a TIM está investiu no primeiro trimestre de 2015 quase R$ 1 bilhão em infraestrutura, priorizando as coberturas das redes 3G e 4G. O aporte faz parte de suas estratégias para expandir os serviços e incrementar os negócios com dados móveis.

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Brasil encerra março com 283,4 milhões de celulares em operação Redação

O Brasil registrou, em março de 2015, um total de 283,4 milhões de linhas ativas de celulares e teledensidade de telefonia móvel de 138,98 acessos por 100 habitantes. Durante o mês, foram adicionadas 471 novas linhas à base de assinantes, segundo balanço divulgado pela Agência Nacional de Telecomunicações (Anatel).

De acordo com o relatório, no terceiro mês de 2015, os celulares pré-pagos totalizavam 213,92 milhões (75,48% do total) e os pós-pagos 69,48 milhões (24,52%).

A Vivo mantém-se na liderança do mercado brasileiro de telefonia celular com 81,8 milhões de assinantes, o equivalente a 28,89% da base total.

Em segundo lugar vem a TIM, com 75,8 milhões de clientes e market share de 26,73%, seguida da Claro com 71,7 milhões de usuários e 25,39% de participação. A Oi é a quarta colocada com 50,4 milhões de celulares ativos e 17,78% da pizza do segmento.

 

 

Acesse os outros sites da VideoPress

Portal Vida Moderna – www.vidamoderna.com.br

Radar Nacional – www.radarnacional.com.br



Quer diminuir custos com telecomunicações?

Harith Hussain*

Todo CFO sabe que os custos de telecomunicações somam um valor significativo e, por isso, exigem de executivos, gerentes e usuários esforços cada vez maiores para otimização e redução destes gastos.

Porém, para que essa redução aconteça, de fato, é necessária a estruturação de um complexo conjunto de processos chamados Telecom Expense Management (TEM), que abrange desde a gestão dos custos de telefonia fixa e telefonia móvel até circuitos de internet e dados.

Por sua vez, os processos TEM são compostos de disciplinas que tratam não somente custos, mas também outros assuntos como melhoramentos de infraestrutura e relacionamento com os prestadores Vendor Relation Management (VRM).

Vamos abordar os seis principais desafios que precisam ser superados para que uma corporação obtenha sucesso na implantação dos processos TEM:

  • O TEM varia de empresa para empresa, em função da necessidade de cada uma. Não há um padrão a ser seguido
  • Apesar dos serviços de telecomunicações serem os mesmos (voz fixa, voz móvel, circuitos de dados e internet), as operadoras fornecem serviços com diferentes planos comerciais e variadas modalidades de cobrança, o que torna a tarefa de avaliar as ofertas bem mais complexa
  • A disputa no valor das tarifas é nítida e aumenta a cada dia. Decidir por um pacote, levando em consideração apenas o preço, pode levar a empresa a ter uma baixa qualidade nos serviços e/ou no atendimento. Encontrar o equilíbrio entre qualidade e custo é, realmente, um grande desafio no trabalho dos gestores
  • As operadoras travam disputas de promoções e ofertas para conquistar novos clientes mas, ao mesmo tempo, não se observa a mesma dedicação para adequação dos valores cobrados aos clientes já pertencentes às suas carteiras. Renegociar as tarifas das operadoras atuantes na corporação é uma tarefa sempre desafiadora
  • As operadoras possuem estruturas grandes e complexas. A constante mudança em suas equipes (comercial e pós-venda) faz com que se perca o histórico das solicitações feitas pelo gestor e que não são registradas em sistema (ativações, contestações, negociações entre outras). Além disso, conseguir o atendimento por uma equipe comprometida com a eficiência não é tarefa fácil. O comprometimento com resultados deve ser o foco tanto da operadora quanto do gestor
  • As faturas emitidas pelas operadoras, principalmente as de telefonia, apresentam alto volume de erros de diversos tipos. Encontrar esses erros requer ferramentas específicas e de alta complexidade.

O custo de não agir
É importante lembrar que há um alto custo em não implementar o TEM ou mesmo atrasar sua implementação na corporação. O principal motivo é o fato de a legislação permitir a reclamação sobre montantes pagos indevidamente até um determinado período. Passado esse período, não há mais do que reclamar; simplesmente esses montantes tornam-se um prejuízo irrecuperável para a corporação.

Outro motivo é o fato de as operadoras não se posicionarem como gestores de seus clientes. Isso torna o trabalho de benchmark responsabilidade do gestor e não das operadoras. Ao atrasar a implementação do TEM, o gestor paga tarifas mais altas do que as praticadas no mercado e, obviamente, não há como recuperar esses montantes ou o que reclamar com as operadoras.

Finalmente, vale lembrar que, apesar de a economia ser o motivador principal da implementação do processo TEM, outras disciplinas, como aprimorar o relacionamento com as operadoras (VRM) por exemplo, são tão importantes quanto a economia e não devem estar ausentes nas agendas.


*Harith Hussain é diretor da Triad M1 – Gestão de Telecomunicações Corporativas



Dali Wireless traz ao Brasil tecnologia multiponto digital escalável

A Dali Wireless, fornecedora global de tecnologia de distribuição de sinais de radiofrequência, anuncia que o produto RF Router, t-Series, foi homologado pela Agência Nacional de Telecomunicações (Anatel). A aprovação possibilita a implementação no Brasil da solução multiponto digital e escalável para que os sinais de radiofrequência trafeguem de qualquer origem para qualquer destino com cobertura e capacidade de redes internas e externas ampliadas. De acordo com a empresa, a solução garante a qualidade de distribuição da rede e o aumento da disposição real de transmissão de dados.

O t-Series é totalmente digital e oferece alta capacidade de macrocélulas em múltiplos operadores, bandas de frequência, e interfaces aéreas, sem degradação e perda do sinal. A plataforma flexível e escalável permite que seja apropriada para diversas situações, incluindo a atribuição de capacidade dinâmica, cobertura inteligente e virtualização RAN.

Baseado na plataforma do RF Router, o t-Series garante cobertura e disponibilidade de tráfego de dados, onde e quando forem necessários. Uma exclusividade do RF Router é a sua capacidade de transformar a distribuição do sinal de rádio frequência de base analógica “ponto-a-ponto” em uma rede digital “multiponto-a-multiponto”.

Com o RF Router, várias estações-base podem ser interligadas física ou logicamente por meio de uma rede de roteadores de rádio frequência, e distribuir livremente entre todos os pontos remotos de cadeia linear ou híbrida. Dessa forma, à medida que mais capacidade sem fio é requerida, mais recursos nas estações-base podem ser adicionados, deixando o restante da rede física de distribuição intacta.

“Há uma grande demanda para cobertura e capacidade sem fio em toda América Latina, em particular, no Brasil. A homologação dos nossos produtos é o primeiro passo para a implementação das soluções da Dali Wireless no mercado brasileiro ”, comenta Lance Craft vice-presidente de Vendas para as Américas da Dali Wireless.



DTL financia pesquisas sobre uso de dados na internet

Fundado por universidades e instituições como Telefônica, MIT e Mozilla,
Data Transparency Lab pagará 50 mil euros para os melhores projetos
de pesquisa acadêmica sobre o uso de dados pessoais online

O Data Transparency Lab (DTL), um projeto da comunidade digital para revelar o fluxo e o uso dos dados pessoais na rede, lançou uma convocação global para oferecer bolsas para os dez melhores projetos de pesquisa sobre o uso de dados na internet. Cada um dos vencedores receberá um financiamento de até 50 mil euros.

As bolsas oferecerão financiamento para pesquisas em campo, que devem ajudar os consumidores a ter maior controle sobre como sua informação é tratada em uma web mais aberta. As temáticas deverão estar centralizadas no desenvolvimento de ferramentas, plataformas, medições e metodologias de engenharia inversa, para o uso de dados em serviços online (por exemplo, publicidade, serviços de recomendação, preços e disponibilidade de bens e informação); coleta de dados pessoais para serviços online; análise e gestão de dados pessoais para a preservação da privacidade; ou aumentar a consciência social e dos usuários.

Por meio desta iniciativa, as instituições participantes, entre elas a Telefónica, também buscam favorecer a sustentabilidade da economia web por meio do uso responsável e transparente da publicidade, do Aomér

O prazo para a apresentação dos projetos é 15 de maio. Toda informação sobre os temas da convocação, o processo de revisão e outros dados do programa de bolsas estão no site da entidade.

O DTL
Fundado por empresas e instituições como Mozilla, Telefónica, MIT Connection Science e Open Data Institute, o DTL foi criado para apoiar a pesquisa de ferramentas, dados e metodologias para clarear sobre o uso de informações pelos serviços online aos dados pessoais, e para capacitar os usuários para controlar seus dados pessoais online.

O DTL tem como principais objetivos desenvolver ferramentas, abrir bancos de dados para os usuários e apoiar a pesquisa (por meio de bolsas, projetos de P&D etc.) nesta área. A Telefónica I+D é uma das fundadoras desta nova instituição, junto ao MIT Human Dynamics Lab (dirigido pelo influente Alex “Sandy” Pentland), Mozilla, ou o Open Data Institute (dirigido por Sir Tim Berners Lee).



ÚLTIMOS 10 PODCASTS

17% do total de ataques cibernéticos e vazamento de dados, até...

0
Desde o lançamento da IA generativa, os invasores têm utilizado Inteligência Artificial para atingir seus alvos com mais velocidade e eficiência, enquanto as defesas têm adotado IA para se proteger rápido e de forma eficaz.

Últimas Notícias